Мультикамерность statt Megapixel
der Technik

Мультикамерность statt Megapixel

Die Mobiltelefonfotografie hatte bereits einen großen Megapixel-Krieg durchgemacht, den niemand gewinnen konnte, da es physische Einschränkungen bei Smartphone-Sensoren und -Größe gab, die eine weitere Miniaturisierung verhinderten. Nun gibt es ein wettbewerbsähnliches Verfahren, bei dem es darum geht, wer mehr vor die Kamera bringen kann (1). Auf jeden Fall kommt es am Ende immer auf die Qualität der Fotos an.

Im ersten Halbjahr 2018 machte sich wegen zweier neuer Kamera-Prototypen das unbekannte Unternehmen Light, das Multi-Lens-Technologie anbietet – nicht für seine Zeit, sondern für andere Smartphone-Modelle – lautstark zu Wort. Obwohl das Unternehmen, wie MT damals schrieb, bereits im Jahr 2015 Modell L16 Mit sechzehn Objektiven (1) ist die Zellvervielfachung von Kameras erst in den letzten Monaten populär geworden.

Kamera voller Objektive

Bei diesem ersten Modell von Light handelte es sich um eine Kompaktkamera (kein Mobiltelefon) in Telefongröße, die DSLR-Qualität bieten sollte. Es machte Bilder mit einer Auflösung von bis zu 52 Megapixeln, bot einen Brennweitenbereich von 35-150 mm, hohe Qualität bei schlechten Lichtverhältnissen und eine einstellbare Schärfentiefe. Möglich wurde alles durch die Kombination von bis zu sechzehn Smartphone-Kameras in einem Gehäuse. Keines dieser zahlreichen Objektive unterschied sich von der Optik in Smartphones. Der Unterschied bestand darin, dass sie in einem Gerät gesammelt wurden.

2. Lichtkameras mit mehreren Objektiven

Beim Fotografieren wurde das Bild gleichzeitig von zehn Kameras mit jeweils eigenen Belichtungsparametern aufgenommen. Alle auf diese Weise aufgenommenen Fotos wurden zu einem großen Foto zusammengefasst, das alle Daten der Einzelaufnahmen enthielt. Das System ermöglichte die Bearbeitung der Schärfentiefe und der Fokuspunkte des fertigen Fotos. Fotos wurden in den Formaten JPG, TIFF oder RAW DNG gespeichert. Das im Handel erhältliche L16-Modell hatte keinen typischen Blitz, aber Fotos konnten mit einer kleinen LED im Gehäuse beleuchtet werden.

Diese Premiere im Jahr 2015 hatte den Status einer Kuriosität. Dies erregte nicht die Aufmerksamkeit vieler Medien und des Massenpublikums. Angesichts der Tatsache, dass Foxconn der Investor von Light war, waren die weiteren Entwicklungen jedoch keine Überraschung. Kurzum: Grundlage hierfür war das wachsende Interesse an der Lösung seitens der mit dem taiwanesischen Anlagenbauer zusammenarbeitenden Unternehmen. Zu den Kunden von Foxconn zählen sowohl Apple als auch insbesondere Blackberry, Huawei, Microsoft, Motorola oder Xiaomi.

Und so tauchten 2018 Informationen über Lights Arbeit an Multikamerasystemen in Smartphones auf. Dann stellte sich heraus, dass das Startup mit Nokia zusammenarbeitete, das 2019 auf dem Mobilfunkkongress MWC in Barcelona das weltweit erste Telefon mit fünf Kameras vorstellte. Modell 9 PureView (3) ausgestattet mit zwei Farbkameras und drei Monochromkameras.

Sveta erklärte auf der Quartz-Website, dass es zwei Hauptunterschiede zwischen dem L16 und dem Nokia 9 PureView gibt. Letzteres verwendet ein neueres Verarbeitungssystem, um Fotos von einzelnen Objektiven zusammenzufügen. Darüber hinaus umfasst das Design von Nokia andere Kameras als die ursprünglich von Light verwendeten, mit ZEISS-Optiken, die mehr Licht einfangen. Drei Kameras erfassen nur Schwarz-Weiß-Licht.

Das Kamera-Array mit jeweils 12 Megapixel Auflösung bietet eine bessere Kontrolle über die Schärfentiefe eines Bildes und ermöglicht es Benutzern, Details zu erfassen, die für eine normale Mobilfunkkamera normalerweise unsichtbar sind. Darüber hinaus ist PureView 9 laut veröffentlichten Beschreibungen in der Lage, bis zu zehnmal mehr Licht als andere Geräte einzufangen und Fotos mit einer Gesamtauflösung von bis zu 240 Megapixeln zu erstellen.

Scharfer Start von Multikamera-Handys

Licht ist nicht die einzige Innovationsquelle in diesem Bereich. Ein Patent des koreanischen Unternehmens LG vom November 2018 beschreibt die Kombination verschiedener Kamerawinkel, um einen Miniaturfilm zu erstellen, der an die Kreationen von Apple Live Photos oder Bildern von Lytro-Geräten erinnert, über die MT vor einigen Jahren ebenfalls schrieb, und die ein Lichtfeld mit einem einstellbaren Lichtfeld einfangen Sichtfeld.

Laut LGs Patent ist diese Lösung in der Lage, verschiedene Datensätze verschiedener Objektive zu kombinieren, um Objekte aus dem Bild auszuschneiden (z. B. im Porträtmodus oder sogar den Hintergrund komplett zu ändern). Natürlich ist dies vorerst nur ein Patent, und es gibt keinen Hinweis darauf, dass LG plant, es in einem Telefon zu implementieren. Da der Krieg um die Smartphone-Fotografie jedoch eskaliert, könnten Telefone mit diesen Funktionen früher auf den Markt kommen, als wir denken.

Wie wir beim Studium der Geschichte der Mehrobjektivkameras sehen werden, Zweikammersysteme sind keineswegs neu. Allerdings war die Platzierung von drei oder mehr Kameras das Thema der letzten zehn Monate..

Unter den großen Telefonherstellern war das chinesische Unternehmen Huawei am schnellsten und brachte ein Modell mit drei Kameras auf den Markt. Bereits im März 2018 machte er einen Antrag Huawei P20 Pro (4), das drei Objektive anbot: Normal, Monochrom und Telezoom, wurde einige Monate später eingeführt. Mate-20, ebenfalls mit drei Kameras.

Doch wie bereits in der Geschichte der Mobiltechnologien musste man nur mutig neue Apple-Lösungen in allen Medien vorstellen, um von einem Durchbruch und einer Revolution zu sprechen. Wie das erste Modell iPhone'а 2007 wurde der Markt für bisher bekannte Smartphones „gestartet“, und zwar der erste IPad (aber überhaupt nicht das erste Tablet) Im Jahr 2010 begann die Ära der Tablets, sodass im September 2019 die Multi-Lens-iPhones „Eleven“ (5) des Unternehmens mit einem Apfel auf dem Logo als scharfer Beginn der Ära angesehen werden konnten Ära der Multikamera-Smartphones.

11 Pro Oraz 11 Pro max ausgestattet mit drei Kameras. Das erste verfügt über ein Sechs-Element-Objektiv mit einer Brennweite von 26 mm für Vollformat und einer relativen Blende von f/1.8. Der Hersteller gibt an, über einen neuen 12-Megapixel-Sensor mit 100 % Pixelfokussierung zu verfügen, was eine ähnliche Lösung wie bei Canon-Kameras oder Samsung-Smartphones bedeuten könnte, bei denen jedes Pixel aus zwei Fotodioden besteht.

Die zweite Kamera verfügt über ein Weitwinkelobjektiv (mit einer Brennweite von 13 mm und einer Helligkeit von f/2.4), ausgestattet mit einer Matrix mit einer Auflösung von 12 Megapixeln. Zusätzlich zu den beschriebenen Modulen gibt es ein Teleobjektiv, das die Brennweite im Vergleich zu einem Standardobjektiv verdoppelt. Dies ist ein f/2.0-Blendendesign. Der Sensor hat die gleiche Auflösung wie andere. Sowohl das Teleobjektiv als auch das Standardobjektiv verfügen über eine optische Bildstabilisierung.

In allen Versionen finden wir Huawei-, Google Pixel- oder Samsung-Telefone. Nacht-Modus. Dies ist auch eine typische Lösung für Mehrlinsensysteme. Es besteht darin, dass die Kamera mehrere Fotos mit unterschiedlicher Belichtungskorrektur aufnimmt und diese dann zu einem Foto mit weniger Rauschen und besserer Tondynamik zusammenfügt.

Die Kamera im Handy – wie ist das passiert?

Das erste Kamerahandy war das Samsung SCH-V200. Das Gerät erschien im Jahr 2000 in Südkorea in den Regalen.

Er konnte sich erinnern zwanzig Fotos mit einer Auflösung von 0,35 Megapixeln. Allerdings hatte die Kamera einen gravierenden Nachteil: Sie ließ sich nicht gut in das Telefon integrieren. Aus diesem Grund betrachten einige Analysten es als separates Gerät, das im selben Gehäuse untergebracht ist, und nicht als integralen Bestandteil des Telefons.

Ganz anders war die Situation im Fall von J-Phone, also ein Telefon, das Sharp Ende des letzten Jahrtausends für den japanischen Markt vorbereitet hat. Das Gerät machte Fotos mit einer sehr geringen Qualität von 0,11 Megapixeln, doch im Gegensatz zum Angebot von Samsung konnten die Fotos drahtlos übertragen und bequem auf dem Handydisplay betrachtet werden. J-Phone ist mit einem Farbdisplay ausgestattet, das 256 Farben anzeigt.

Mobiltelefone haben sich schnell zu einem äußerst modischen Gerät entwickelt. Allerdings nicht dank Sanyo- oder J-Phone-Geräten, sondern dank der Vorschläge der Mobilfunkgiganten, damals hauptsächlich Nokia und Sony Ericsson.

Nokia 7650 Ausgestattet mit einer 0,3-Megapixel-Kamera. Es war eines der ersten weit verbreiteten und beliebten Fototelefone. Er hat sich auch gut auf dem Markt geschlagen. Sony Ericsson T68i. Kein Telefonanruf, bevor es gleichzeitig MMS-Nachrichten empfangen und senden konnte. Anders als bei den in der Liste getesteten Vorgängermodellen musste die Kamera beim T68i jedoch separat erworben und am Mobiltelefon befestigt werden.

Nach der Premiere dieser Geräte begann die Beliebtheit von Kameras in Mobiltelefonen enorm zu wachsen – bereits im Jahr 2003 wurden weltweit mehr Kameras verkauft als herkömmliche Digitalkameras.

Im Jahr 2006 verfügten mehr als die Hälfte aller Mobiltelefone weltweit über eine eingebaute Kamera. Ein Jahr später kam erstmals jemand auf die Idee, zwei Linsen in einer Zelle unterzubringen...

Von mobilem Fernsehen über 3D bis hin zu immer besserer Fotografie

Entgegen dem Anschein ist die Geschichte von Multikameralösungen gar nicht so kurz. Samsung bietet in seinem Modell B710 (6) Doppelobjektiv im Jahr 2007. Obwohl damals mehr Wert auf die Fähigkeiten der Kamera beim mobilen Fernsehen gelegt wurde, ermöglichte das Doppellinsensystem das Festhalten fotografischer Erinnerungen 3D-Effekt. Wir haben uns das fertige Foto auf dem Display dieses Modells angesehen, ohne eine spezielle Brille tragen zu müssen.

In jenen Jahren herrschte große Mode für 3D, Kamerasysteme wurden als Möglichkeit angesehen, diesen Effekt zu reproduzieren.

LG Optimus 3D, das im Februar 2011 Premiere hatte, und HTC Evo 3D, veröffentlicht im März 2011, verwendete zwei Objektive, um 3D-Fotos zu erstellen. Sie nutzten die gleiche Technik wie die Designer „normaler“ 3D-Kameras und verwendeten zwei Linsen, um den Bildern ein Gefühl von Tiefe zu verleihen. Dies wurde durch ein 3D-Display erweitert, das die Betrachtung der aufgenommenen Bilder ohne Brille ermöglicht.

Es stellte sich jedoch heraus, dass 3D nur eine vorübergehende Modeerscheinung war. Mit seinem Untergang dachte man nicht mehr an Mehrkamerasysteme als Werkzeug für die stereografische Bildgebung.

Zumindest nicht am allermeisten. Die erste Kamera, die zwei Bildsensoren für ähnliche Zwecke wie heute bot, war HTC One M8 (7), veröffentlicht im April 2014. Der 4-Megapixel-UltraPixel-Primärsensor und der 2-Megapixel-Sensor, der Sekundärdaten erfasst, wurden entwickelt, um den Fotos ein Gefühl von Tiefe zu verleihen.

Das zweite Objektiv erstellte eine Tiefenkarte und bezog diese in das endgültige Bildergebnis ein. Damit war die Fähigkeit gemeint, eine Wirkung zu erzeugen Hintergrundunschärfe , fokussieren Sie das Bild mit einer Berührung des Anzeigefelds neu und verwalten Sie Ihre Fotos ganz einfach, sodass Ihr Motiv scharf bleibt und sich der Hintergrund auch nach der Aufnahme ändert.

Allerdings erkannte damals nicht jeder das Potenzial dieser Technik. Das HTC One M8 war vielleicht kein Marktversagen, aber besonders beliebt war es auch nicht. Ein weiteres wichtiges Gebäude in dieser Geschichte, LG G5, wurde im Februar 2016 veröffentlicht. Es war mit einem 16-Megapixel-Primärsensor und einem zweiten 8-Megapixel-Sensor ausgestattet, bei dem es sich um ein Weitwinkelobjektiv mit einem 135-Grad-Sichtfeld handelt, auf das das Gerät umgeschaltet werden konnte.

Im April 2016 bot Huawei das Modell in Zusammenarbeit mit Leica an. P9, mit zwei Kameras auf der Rückseite. Einer davon wurde zur Erfassung von RGB-Farben () verwendet, der andere zur Erfassung monochromer Details. Auf Basis dieses Modells entwickelte Huawei später das bereits erwähnte P20-Modell.

Im Jahr 2016 wurde es ebenfalls auf den Markt gebracht iphone 7 plus mit zwei Kameras auf der Rückseite – beide 12 Megapixel, aber mit unterschiedlichen Brennweiten. Die erste Kamera hatte einen 23-mm-Zoom, die zweite 56 mm, was den Beginn der Ära der Smartphone-Telefotografie bedeutete. Die Idee bestand darin, dem Benutzer die Möglichkeit zu geben, ein Bild ohne Qualitätsverlust zu vergrößern – Apple wollte das seiner Meinung nach größte Problem bei der Smartphone-Fotografie lösen und entwickelte eine Lösung, die zum Verbraucherverhalten passte. Es duplizierte auch die Lösung von HTC und bot Bokeh-Effekte mithilfe von Tiefenkarten, die aus Daten beider Objektive abgeleitet wurden.

Das Erscheinen des Huawei P20 Pro Anfang 2018 bedeutete die Integration aller bisher getesteten Lösungen in einem Gerät mit Triple-Kamera. Das RGB- und Monochrom-Sensorsystem sowie die Verwendung wurden um ein Varioobjektiv erweitert künstliche Intelligenz Es bot viel mehr als die einfache Summe aus Optik und Sensoren. Es gibt auch einen beeindruckenden Nachtmodus. Das neue Modell war ein großer Erfolg und erwies sich im Hinblick auf den Markt eher als Durchbruch als die Nokia-Kamera, die mit ihrer Anzahl an Objektiven glänzte, oder das übliche Apple-Produkt.

Als Vorreiter des Trends, mehr als eine Kamera in ein Telefon zu integrieren, bot Samsung (8) 2018 auch eine Kamera mit drei Objektiven an. Es war im Modell Samsung Galaxy A7.

8. Samsung Dual-Lens-Produktionsmodul

Allerdings entschied sich der Hersteller für die Verwendung von Normal-, Weitwinkel- und Third-Eye-Objektiven, um nicht sehr genaue „Tiefeninformationen“ zu liefern. Aber ein anderes Modell Galaxy A9stehen bis zu vier Objektive zur Verfügung: ein Ultraweitwinkelobjektiv, ein Teleobjektiv, eine Standardkamera und ein Tiefensensor.

Es ist viel, weil Derzeit sind noch drei Objektive Standard. Abgesehen vom iPhone verfügen die Flaggschiffmodelle ihrer Marken wie das Huawei P30 Pro und das Samsung Galaxy S10+ über drei Kameras auf der Rückseite. Natürlich zählen wir das kleinere Selfie-Objektiv auf der Vorderseite nicht mit..

Google scheint das alles gleichgültig zu sein. Sein Pixel 3 Er hatte eine der besten Kameras auf dem Markt und konnte „alles“ mit nur einem Objektiv machen.

Pixelgeräte verwenden spezielle Software, um Stabilisierung, Zoom und Tiefeneffekte bereitzustellen. Die Ergebnisse waren nicht so gut, wie sie mit mehreren Objektiven und Sensoren hätten sein können, aber der Unterschied war gering und die Telefone von Google machten die kleinen Lücken durch eine hervorragende Leistung bei schlechten Lichtverhältnissen wett. Es scheint jedoch, dass dies kürzlich im Modell der Fall war Pixel 4, sogar Google ist endgültig zusammengebrochen, obwohl es immer noch nur zwei Objektive anbietet: Normal und Tele.

Nicht hinten

Welche Vorteile bietet es, einem Smartphone zusätzliche Kameras hinzuzufügen? Wenn sie mit unterschiedlichen Brennweiten aufnehmen, unterschiedliche Blenden einstellen und ganze Bildstapel für die weitere algorithmische Verarbeitung (Komposition) erfassen, führt dies laut Experten zu einer spürbaren Qualitätssteigerung im Vergleich zu Bildern, die mit einer einzigen Telefonkamera aufgenommen wurden.

Fotos sind schärfer, detaillierter, mit natürlicheren Farben und einem größeren Dynamikumfang. Auch die Leistung bei schlechten Lichtverhältnissen ist viel besser.

Viele Leute, die über die Fähigkeiten von Mehrlinsensystemen lesen, assoziieren diese hauptsächlich mit der Unschärfe des Hintergrunds eines Bokeh-Porträts, d. h. Objekte außerhalb der Schärfentiefe unscharf zu machen. Aber das ist noch nicht alles.

Kameras dieser Art erfüllen immer mehr Funktionen, darunter auch eine genauere XNUMXD-Kartierung erweiterte Realität und bessere Gesichts- und Landschaftserkennung.

Bisher übernahmen optische Sensoren von Smartphones mit Hilfe von Apps und künstlicher Intelligenz Aufgaben wie Wärmebildaufnahmen, die Übersetzung fremder Texte aus Bildern, die Identifizierung von Sternbildern am Nachthimmel oder die Analyse der Bewegungen eines Sportlers. Der Einsatz von Mehrkamerasystemen verbessert die Leistung dieser erweiterten Funktionen erheblich. Und vor allem bringt es uns alle in einem Paket zusammen.

Die alte Geschichte der Mehrziellösungen zeigt eine andere Suche, aber das schwierige Problem waren schon immer die hohen Anforderungen an die Datenverarbeitung, die Algorithmusqualität und den Stromverbrauch. Bei modernen Smartphones, die sowohl leistungsstärkere visuelle Signalprozessoren als zuvor, energieeffiziente digitale Signalprozessoren als auch verbesserte neuronale Netzwerkfähigkeiten verwenden, wurden diese Probleme erheblich reduziert.

Hohe Detailgenauigkeit, größere optische Möglichkeiten und anpassbare Bokeh-Effekte stehen heute ganz oben auf der Liste der Anforderungen an die moderne Smartphone-Fotografie. Um sie abzuschließen, musste sich ein Smartphone-Benutzer bis vor Kurzem mit einer herkömmlichen Kamera entschuldigen. Nicht unbedingt heute.

Bei großen Kameras entsteht der ästhetische Effekt ganz natürlich, wenn Objektivgröße und Blendengröße groß genug sind, um überall dort, wo Pixel unscharf sind, eine analoge Unschärfe zu erzielen. Mobiltelefone haben Linsen und Sensoren (9), die zu klein sind, als dass dies auf natürliche Weise (im analogen Raum) passieren könnte. Daher wird ein Software-Emulationsverfahren entwickelt.

Pixel, die weiter vom Fokusbereich oder der Brennebene entfernt sind, werden mithilfe eines der vielen Unschärfealgorithmen, die üblicherweise in der Bildverarbeitung verwendet werden, künstlich unscharf gemacht. Der Abstand jedes Pixels vom Fokusbereich lässt sich am besten und schnellsten anhand von zwei Fotos messen, die im Abstand von ca. 1 cm aufgenommen wurden.

Dank der konstanten Teilungslänge und der Möglichkeit, beide Winkel gleichzeitig aufzunehmen (wobei Bewegungsrauschen vermieden wird), ist es möglich, die Tiefe jedes Pixels im Foto zu triangulieren (mithilfe eines Mehrwinkel-Stereoalgorithmus). Es ist jetzt einfach, eine hervorragende Schätzung der Position jedes Pixels im Verhältnis zum Fokusbereich zu erhalten.

Das ist nicht einfach, aber Telefone mit zwei Kameras erleichtern den Vorgang, da sie gleichzeitig Fotos aufnehmen können. Einlinsensysteme müssen entweder zwei aufeinanderfolgende Aufnahmen (aus unterschiedlichen Winkeln) machen oder unterschiedliche Zooms verwenden.

Es gibt eine Möglichkeit, ein Foto zu vergrößern, ohne die Auflösung zu verlieren Teleobjektiv ( optisch). Der maximale echte optische Zoom, den Sie mit einem Smartphone erreichen können, beträgt beim Huawei P5 Pro derzeit 30x.

Einige Telefone verwenden Hybridsysteme, die sowohl optische als auch digitale Bilder verwenden, sodass Sie ohne sichtbaren Qualitätsverlust hineinzoomen können. Das oben erwähnte Google Pixel 3 nutzt dazu äußerst komplexe Computeralgorithmen, sodass es nicht verwundert, dass keine zusätzlichen Linsen erforderlich sind. Allerdings wurden die „Vier“ bereits eingeführt, so dass es schwierig erscheint, auf die Optik zu verzichten.

Die Physik eines typischen Objektivdesigns macht es sehr schwierig, ein Zoomobjektiv in das dünne Gehäuse eines High-End-Smartphones einzubauen. Dadurch konnten Telefonhersteller dank der herkömmlichen Sensor-Linsen-Ausrichtung des Smartphones eine maximal zwei- bis dreimal längere optische Zeit erreichen. Das Hinzufügen eines Teleobjektivs bedeutet normalerweise ein dickeres Telefon, einen kleineren Sensor oder die Verwendung einer faltbaren Optik.

Eine Möglichkeit, den Brennpunkt zu überschreiten, ist die sogenannte komplexe Optik (10). Der Sensor des Kameramoduls befindet sich vertikal im Telefon und ist mit einer optischen Achse, die entlang des Telefongehäuses verläuft, auf das Objektiv gerichtet. Ein Spiegel oder Prisma wird im richtigen Winkel positioniert, um das Licht von der Szene zum Objektiv und Sensor zu reflektieren.

10. Komplexe Optik in einem Smartphone

Die ersten Designs dieser Art verfügten über einen festen Spiegel, der für Doppellinsensysteme wie die Produkte Falcon und Corephotonics Hawkeye geeignet war, die eine traditionelle Kamera und ein komplexes Teleobjektivdesign in einem einzigen Gerät vereinen. Allerdings beginnen auch Projekte von Unternehmen wie Light auf den Markt zu kommen, die bewegliche Spiegel verwenden, um Bilder von mehreren Kameras zu synthetisieren.

Das genaue Gegenteil von Tele Weitwinkelfotografie. Anstelle von Nahaufnahmen zeigen Weitwinkelaufnahmen mehr von dem, was vor uns liegt. Die Weitwinkelfotografie wurde als zweites Linsensystem beim LG G5 und nachfolgenden Handys eingeführt.

Die Weitwinkeloption ist besonders nützlich, um aufregende Momente einzufangen, beispielsweise wenn man sich bei einem Konzert in einer Menschenmenge aufhält oder an einem Ort, der zu groß ist, um mit einem schmaleren Objektiv aufgenommen zu werden. Es eignet sich auch hervorragend für die Aufnahme von Stadtlandschaften, hohen Gebäuden und anderen Dingen, die mit normalen Objektiven einfach nicht sichtbar sind. Normalerweise ist es nicht nötig, in den einen oder anderen „Modus“ zu wechseln, da die Kamera umschaltet, wenn Sie sich dem Motiv nähern oder sich davon entfernen, und sich nahtlos in das normale Kameraerlebnis integriert. .

Laut LG verwenden 50 % der Dual-Kamera-Nutzer ein Weitwinkelobjektiv als Hauptkamera.

Derzeit ist die gesamte Smartphone-Reihe bereits mit einem Trainingssensor ausgestattet. monochrome Fotografiendas heißt, schwarz und weiß. Ihr größter Vorteil ist die Schärfe, weshalb manche Fotografen sie bevorzugen.

Moderne Telefone sind intelligent genug, um diese Schärfe mit Informationen von Farbsensoren zu kombinieren, um eine Aufnahme zu erzeugen, die theoretisch genauer ausgeleuchtet ist. Allerdings ist der Einsatz eines Monochromsensors noch selten. Wenn es im Kit enthalten ist, kann es normalerweise von anderen Objektiven isoliert werden. Diese Option finden Sie in den Einstellungen der Kamera-App.

Da Kamerasensoren keine Farben selbst erfassen, benötigen sie eine App Farbfilter über die Pixelgröße. Daher zeichnet jedes Pixel nur eine Farbe auf – normalerweise Rot, Grün oder Blau.

Die resultierende Pixelsumme wird erstellt, um ein verwendbares RGB-Bild zu erstellen, bei diesem Prozess gibt es jedoch Kompromisse. Der erste ist der durch die Farbmatrix verursachte Auflösungsverlust, und da jedes Pixel nur einen Teil des Lichts empfängt, ist die Kamera nicht so empfindlich wie ein Gerät ohne Farbfiltermatrix. Hier kommt dem qualitätsbewussten Fotografen der Monochromsensor zu Hilfe, der das gesamte verfügbare Licht in voller Auflösung einfangen und aufzeichnen kann. Durch die Kombination des Bildes der Monochromkamera mit dem Bild der Haupt-RGB-Kamera entsteht ein detaillierteres Endbild.

Ein zweiter Monochrom-Sensor ist für diese Anwendung ideal, aber nicht die einzige Option. Archos beispielsweise macht etwas Ähnliches wie normales Monochrom, verwendet aber zusätzlich einen höher auflösenden RGB-Sensor. Da die beiden Kameras gegeneinander versetzt sind, bleibt der Prozess des Ausrichtens und Zusammenführens der beiden Bilder komplex und das endgültige Bild ist normalerweise nicht so detailliert wie die höher aufgelöste Schwarzweißversion.

Das Ergebnis ist jedoch eine deutliche Qualitätsverbesserung im Vergleich zu einem Foto, das mit einem einzelnen Kameramodul aufgenommen wurde.

Tiefensensor, das unter anderem in Samsung-Kameras zum Einsatz kommt, ermöglicht professionelle Unschärfeeffekte und höherwertiges Augmented-Reality-Rendering sowohl mit der Vorder- als auch mit der Rückkamera. High-End-Telefone ersetzen jedoch nach und nach Tiefensensoren, indem sie den Prozess in Kameras integrieren, die auch die Tiefe erkennen können, beispielsweise Geräte mit Ultraweitwinkel- oder Teleobjektiven.

Natürlich werden Tiefensensoren wahrscheinlich weiterhin in günstigeren Telefonen und solchen, die darauf abzielen, Tiefeneffekte ohne teure Optik zu erzeugen, auftauchen, wie z Moto G7.

Augmented Reality, d.h. echte Revolution

Wenn das Telefon die Unterschiede in den Bildern mehrerer Kameras nutzt, um eine Karte seiner Entfernung in einer bestimmten Szene zu erstellen (normalerweise Tiefenkarte genannt), kann es diese dann zur Stromversorgung nutzen Augmented-Reality-App (AR). Es wird beispielsweise bei der Platzierung und Darstellung synthetischer Objekte auf Szenenoberflächen unterstützt. Geschieht dies in Echtzeit, können Objekte zum Leben erwachen und sich bewegen.

Sowohl Apple mit seinem ARKit als auch Android mit ARCore bieten AR-Plattformen für Telefone mit mehreren Kameras. 

Eines der besten Beispiele für neue Lösungen, die mit der Verbreitung von Smartphones mit mehreren Kameras entstehen, sind die Erfolge des Silicon Valley-Startups Lucid. In manchen Kreisen gilt er möglicherweise als der Schöpfer VR180 LucidCam und der technologische Gedanke hinter dem revolutionären Kameradesign Rot 8K 3D

Lucid-Spezialisten haben die Plattform erstellt Klare 3D-Fusion (11), das maschinelles Lernen und Statistiken nutzt, um die Tiefe von Bildern schnell und in Echtzeit zu messen. Diese Methode ermöglicht Funktionen, die bisher auf Smartphones nicht verfügbar waren, wie beispielsweise erweiterte Objektverfolgung in Augmented Reality und Gesten in der Luft mithilfe hochauflösender Bilder. 

11. Visualisierungstechnologien Lucid

Aus Sicht des Unternehmens ist die Verbreitung von Telefonkameras ein äußerst vorteilhafter Bereich für Augmented-Reality-Sensoren, die in die allgegenwärtigen Handheld-Computer integriert sind, auf denen Apps ausgeführt werden und die ständig mit dem Internet verbunden sind. Smartphone-Kameras sind bereits in der Lage, das, worauf wir sie richten, zu erkennen und zusätzliche Informationen darüber bereitzustellen. Sie ermöglichen es uns, visuelle Daten zu sammeln und in der realen Welt platzierte Augmented-Reality-Objekte anzuzeigen.

Die Software von Lucid kann Daten von zwei Kameras in 3D-Informationen umwandeln, die für die Echtzeitkartierung und die Aufzeichnung von Szenen mit Tiefeninformationen verwendet werden. Dadurch können Sie schnell 3D-Modelle und XNUMXD-Videospiele erstellen. Das Unternehmen nutzte seine LucidCam, um die Erweiterung des menschlichen Sehvermögens zu einer Zeit zu erkunden, als Dual-Kamera-Smartphones nur einen kleinen Teil des Marktes ausmachten.

Viele Kommentatoren haben darauf hingewiesen, dass wir dadurch, dass wir uns nur auf die fotografischen Aspekte von Smartphones mit mehreren Kameras konzentrieren, übersehen, was diese Technologie tatsächlich mit sich bringen kann. Nehmen wir zum Beispiel das iPhone, das maschinelle Lernalgorithmen verwendet, um Objekte in einer Szene zu scannen und so in Echtzeit eine XNUMXD-Tiefenkarte des Geländes und der Objekte zu erstellen. Die Software nutzt dies, um den Hintergrund vom Vordergrund zu trennen und gezielt auf Objekte darin zu fokussieren. Die dabei entstehenden Bokeh-Effekte sind lediglich Gimmicks. Etwas anderes ist wichtig.

Die Software, die diese Analyse der sichtbaren Szene durchführt, erstellt gleichzeitig virtuelles Fenster in die reale Welt. Mithilfe der Handgestenerkennung können Benutzer mithilfe dieser räumlichen Karte auf natürliche Weise mit der Mixed-Reality-Welt interagieren, wobei der Beschleunigungsmesser und die GPS-Daten des Telefons Änderungen in der Darstellung und Aktualisierung der Welt erkennen und vorantreiben.

deshalb Das Hinzufügen von Kameras zu Smartphones, ein scheinbar nutzloser Sport und Wettbewerb, bei dem es darum geht, wer am meisten geben kann, könnte am Ende die Maschinenschnittstelle und, wer weiß, auch die Art und Weise, wie Menschen interagieren, revolutionieren.

Doch zurück zum Bereich der Fotografie: Viele Kommentatoren haben angemerkt, dass Lösungen mit mehreren Kameras der letzte Nagel im Sarg für viele Kameratypen, wie etwa DSLRs, sein könnten. Das Durchbrechen der Grenzen der Bildqualität bedeutet, dass nur spezielle Fotoausrüstung der Spitzenklasse ihre Daseinsberechtigung behält. Das Gleiche kann auch bei Videokameras passieren.

Mit anderen Worten, Smartphones, die mit Kameras verschiedener Typen ausgestattet sind, werden nicht nur einfache Schnappschüsse, sondern auch die meisten professionellen Geräte ersetzen. Ob es tatsächlich dazu kommen wird, ist noch schwer zu beurteilen. Bisher halten sie es für so erfolgreich.

Siehe auch:

Kommentar hinzufügen