Technologien

Smart HDR auf iPhone XS, XS Max und XR Ist dies Apples Version von Google HDR +?

Smart HDR auf iPhone XS, XS Max und XR Ist dies Apples Version von Google HDR +?

Apple hat in diesem Jahr drei neue iPhones auf den Markt gebracht. Alle drei werden mit dem neuesten A12 Bionic-Chipsatz des Unternehmens betrieben. Der A12 Bionic-Chipsatz basiert auf einem 7-nm-Prozess und verfügt über eine neuronale Engine der nächsten Generation, die einige neue Funktionen in der Kamera-App freischaltet.

Apple sprach ausführlich über die brandneue Smart HDR-Funktion, die das Unternehmen nach eigenen Angaben bereitstellen kann "Fotos mit hohem Dynamikbereich und großartigen Bilddetails, fortschrittlicher Bokeh-Qualität in Fotos im Porträtmodus und dynamischer Schärfentiefe, die vom Benutzer in der Fotos-App angepasst werden kann."

Das macht es vielleicht nicht sofort klar. Wenn Sie sich also immer noch fragen, was genau dieser Smart HDR ist, sind Sie hier richtig.

Ein bisschen Hilfe von neuronalen Netzen

Einfach ausgedrückt, mit Smart HDR können Benutzer auf bessere Bilder klicken, die aufgrund von Überbelichtung oder Schatten kaum oder gar keine Detailverluste aufweisen. Sie erhalten keine Bilder, die in den dunkleren Bereichen schwarz oder in den gut vermieteten Bereichen blendend weiß aussehen. Um dies zu erreichen, klicken die neuen iPhones sofort auf mehrere Bilder des Motivs in verschiedenen Belichtungen. Dies ist nun Standard-HDR, das seit Jahren verwendet wird. Smart HDR verwendet maschinelles Lernen, um noch mehr Frames zu erstellen, und kombiniert beide, um das beste endgültige Bild zu erhalten.

Es ist also wie bei Google HDR+?

Wenn Ihnen das bekannt vorkommt, möchte ich Sie daran erinnern, dass Google Pixel auch eine ähnliche Funktion hat, die jedoch etwas anders funktioniert. Anstatt die besten Teile mehrerer Bilder zu kombinieren, kombiniert die Implementierung von Google mehrere unterbelichtete Fotos, um das beste Bild zu liefern. Google verwendet außerdem einen dedizierten Pixel Visual Core-Co-Prozessor sowie seine Algorithmen für maschinelles Lernen, um Änderungen am endgültigen Bild in Echtzeit vorzunehmen. Sie können den Unterschied mit HDR + aus (links) und ein unten sehen. Es ist riesig und Smart HDR verspricht ähnliche Ergebnisse zu liefern.

Bild: Google

Pixel 2 schlagen?

Da beide Implementierungen sehr unterschiedlich sind, wäre es sehr interessant zu sehen, wie die neuen iPhones mit den Pixel-Geräten übereinstimmen. Obwohl die Google Pixel-Serie seit ihrer Einführung eine dominierende Kraft bei Smartphone-Kameras ist, besteht eine gute Chance, dass Apple in diesem Jahr mit seiner neuen Smart HDR-Funktion den Spitzenplatz einnimmt.

Tiefenkontrolle

Neben der Smart HDR-Funktion werden die neuen iPhones noch etwas enthalten, das den Pixel-Geräten fehlt. Die 2018 iPhones verfügen über eine Tiefensteuerung, mit der Benutzer die Bildschärfentiefe eines Fotos nach der Aufnahme manuell anpassen können, was zu natürlicheren Bildern führen kann. Dies haben wir bereits bei einigen Android-Geräten wie dem Samsung Galaxy S9 / S9 + und dem kürzlich vorgestellten Vivo V11 Pro gesehen.

Menschen in Frankreich können jetzt Geld über Tweets überweisen
Twitter wurde immer als ein großartiges Medium angesehen, um mit Menschen auf der ganzen Welt in Kontakt zu treten. So sehr, dass es für jeden, der ve...
So beheben Sie eine hohe CPU- / Speicherauslastung in Windows 10
Windows 10 sollte PCs und Laptops, auf denen frühere Windows-Iterationen ausgeführt wurden, eine überlegene Leistung bieten. Wenn man jedoch den versc...
So geben Sie versteckte Mac-Tastatursymbole ein
Während die Tastatur eines Mac genauso aussieht wie jede andere Tastatur auf dem Planeten (mit Ausnahme der Befehls- und Optionsschaltflächen, nehme i...