Warum ist uns das erst in der Pandemie aufgefallen, dass die Frontkameras der Macbooks so schlecht sind? Bis vor ein paar Tagen war bei den Einsteiger-Macbooks 720p-Auflösung das höchste der Gefühle, mit den Fähigkeiten der neuronalen Kerne des M1 hat sich immerhin im November die Qualität bei Macbook Air und Macbook Pro spürbar verbessert. Das Macbook M2 bekommt jetzt immerhin eine 1080p-Kamera (beim Macbook Pro M2 verbleibt die alte Lösung), aber im Gegensatz zu den Kameras der iPads und des Studio Displays versteht sich diese nicht auf Center Stage: Die Person vor dem Rechner bleibt dabei dank Weitwinkeloptik, die die Software auf das Gesicht ausrichtet, immer im Bild.
So ist die Lösung, die Apple mit macOS 13 Ventura und iOS 16 einführt, auch für das neue Macbook Air M2 mit seiner verbesserten Optik eine sinnvolle: Continuity Cam mit Desk View.
Endlich eine vernünftige Kamera für Macbooks
Der erste Teil bedeutet, dass sich das iPhone (ab iOS 16) auf dem Ventura-Mac als Webcam nutzen lässt, was bisher eine App wie EposcCam Webcam ermöglichte ( wir berichteten). Was man dafür tun muss: Das iPhone auf ein Tripod stellen, sodass das Kameramodul über den Rand des Notebookbildschirms hinausragt und den Menschen vor dem Bildschirm ins Blickfeld rückt. Belkin wird über den Apple Store noch in diesem Jahre eine Halterung anbieten, mit der man das iPhone perfekt an den Deckel des Macbook anbringen kann.
Dabei ist lediglich noch zu beachten, dass Mac und iPhone mit der gleichen Apple-ID arbeiten. Jede Anwendung, die eine Kamera nutzt, also nicht nur Apples Facetime, sondern auch Teams, Zoom, Webex und wie sie alle heißen, können dann auf das iPhone als Kamera zugreifen.
Der Vorteil: Das Bild wird merklich besser im Vergleich zu dem der internen Kamera. (Mac Mini und Mac Pro haben gar keine interne Kamera, in diesem Fall muss das iPhone den Vergleich der Bildqualität mit der externen Webcam antreten). Ein weiterer Vorteil: Es stehen nun sämtliche Effekte des Portraitmodus des iPhone zur Verfügung, vor allem „Studiolicht“ bewirkt, dass die Person vor dem Bildschirm sich noch besser vom Hintergrund abhebt, so, als sei sie von einem Ringlicht beleuchtet. Das ist aber ein etwas steile These, auch wenn man im Alltag auf eine zusätzliche Beleuchtung verzichten kann, wird sich die von Algorithmen errechnete Beleuchtung kaum mit einer professionellen Lösung messen können.
Den Schreibtisch im Blick
Das iPhone beherrscht in diesem Modus aber einen weiteren Trick: Desk View, den Blick auf den Schreibtisch. Denn wozu hat man ein Ultraweitwinkel? Die 120 Grad des Gesichtsfelds der Kamera reichen aus, um abbilden zu können, was vor dem Rechner auf dem Schreibtisch vor sich geht. Natürlich würden die Hände und Gegenstände vor der Tastatur verzerrt und auf den Kopf stehend abgebildet, würde nicht die Rechenpower der iPhone-Chips das Bild in Echtzeit gerade rücken. Das gelingt auf den ersten Blick erstaunlich gut – die Gesprächspartner werden sich wundern, wo denn die zweite Kamera ist.
Dabei kommt eine zweite Kamera faktisch nur dann ins Spiel, schaltet man Center Stage ab. Denn für diesen Modus ist eben die Ultraweitwinkelkamera vonnöten, die iPhones ab der Reihe 11 bieten. Bleibt man vor seinem Rechner sitzen oder ruhig stehen, hat man auch keinen Bedarf an optischer Nachverfolgung: Dann nimmt die Weitwinkelkamera die Person vor dem Rechner ins Visier und die Ultraweitwinkeloptik kümmert sich um den Schreibtisch.
Die Systemvoraussetzungen ergeben sich daraus: Das iPhone muss eine Ultraweitwinkelkamera haben, wie sie Apple seit der Serie 11 im Jahr 2019 verbaut. In den 11er ist zudem der A13 Bionic eingebaut, dessen Rechenleistung für diesen Trick genügt. Für das Studiolicht der Continuity Camera ist aber mindestens die 12er-Serie mit dem A14 Bionic vorausgesetzt. (Macwelt)