Apple hat in diesem Jahr drei neue iPhones auf den Markt gebracht. Alle drei werden mit dem neuesten A12 Bionic-Chipsatz des Unternehmens betrieben. Der A12 Bionic-Chipsatz basiert auf einem 7-nm-Prozess und verfügt über eine neuronale Engine der nächsten Generation, die einige neue Funktionen in der Kamera-App freischaltet.
Apple sprach ausführlich über die brandneue Smart HDR-Funktion, die das Unternehmen nach eigenen Angaben bereitstellen kann "Fotos mit hohem Dynamikbereich und großartigen Bilddetails, fortschrittlicher Bokeh-Qualität in Fotos im Porträtmodus und dynamischer Schärfentiefe, die vom Benutzer in der Fotos-App angepasst werden kann."
Das macht es vielleicht nicht sofort klar. Wenn Sie sich also immer noch fragen, was genau dieser Smart HDR ist, sind Sie hier richtig.
Ein bisschen Hilfe von neuronalen Netzen
Einfach ausgedrückt, mit Smart HDR können Benutzer auf bessere Bilder klicken, die aufgrund von Überbelichtung oder Schatten kaum oder gar keine Detailverluste aufweisen. Sie erhalten keine Bilder, die in den dunkleren Bereichen schwarz oder in den gut vermieteten Bereichen blendend weiß aussehen. Um dies zu erreichen, klicken die neuen iPhones sofort auf mehrere Bilder des Motivs in verschiedenen Belichtungen. Dies ist nun Standard-HDR, das seit Jahren verwendet wird. Smart HDR verwendet maschinelles Lernen, um noch mehr Frames zu erstellen, und kombiniert beide, um das beste endgültige Bild zu erhalten.
Es ist also wie bei Google HDR+?
Wenn Ihnen das bekannt vorkommt, möchte ich Sie daran erinnern, dass Google Pixel auch eine ähnliche Funktion hat, die jedoch etwas anders funktioniert. Anstatt die besten Teile mehrerer Bilder zu kombinieren, kombiniert die Implementierung von Google mehrere unterbelichtete Fotos, um das beste Bild zu liefern. Google verwendet außerdem einen dedizierten Pixel Visual Core-Co-Prozessor sowie seine Algorithmen für maschinelles Lernen, um Änderungen am endgültigen Bild in Echtzeit vorzunehmen. Sie können den Unterschied mit HDR + aus (links) und ein unten sehen. Es ist riesig und Smart HDR verspricht ähnliche Ergebnisse zu liefern.
Pixel 2 schlagen?
Da beide Implementierungen sehr unterschiedlich sind, wäre es sehr interessant zu sehen, wie die neuen iPhones mit den Pixel-Geräten übereinstimmen. Obwohl die Google Pixel-Serie seit ihrer Einführung eine dominierende Kraft bei Smartphone-Kameras ist, besteht eine gute Chance, dass Apple in diesem Jahr mit seiner neuen Smart HDR-Funktion den Spitzenplatz einnimmt.
Tiefenkontrolle
Neben der Smart HDR-Funktion werden die neuen iPhones noch etwas enthalten, das den Pixel-Geräten fehlt. Die 2018 iPhones verfügen über eine Tiefensteuerung, mit der Benutzer die Bildschärfentiefe eines Fotos nach der Aufnahme manuell anpassen können, was zu natürlicheren Bildern führen kann. Dies haben wir bereits bei einigen Android-Geräten wie dem Samsung Galaxy S9 / S9 + und dem kürzlich vorgestellten Vivo V11 Pro gesehen.