Am Montag war es nun also so weit: Der seit langem erwartete Einstieg Apples in das Thema Künstliche Intelligenz ist da. Dabei ist nicht nur eine ganze Menge an Neuerungen zusammengekommen, Apple integriert die entsprechenden Funktionen auch konsequent quer über das gesamte System. Von Textzusammenfassungen über die Änderung der Tonalität von Texten bis zur Bilderzeugung und zur Verknüpfung von Anfragen mit persönlichen Informationen und dem aktuellen Bildschirminhalt reicht die Palette.

Die Apple Intelligence hält Einzug.
GETTY IMAGES NORTH AMERICA/JUSTI

Das klingt alles zunächst einmal sehr nützlich, wer das Ganze nutzen will, sollte aber zunächst einen Blick auf die Hardwareanforderungen werfen. Die Auswahl an unterstützten iPhones ist nämlich dünn, genauer gesagt: sehr dünn.

Ein exklusives Duo

Von den bisher bereits erhältlichen Geräten sollen lediglich iPhone 15 Pro und Pro Max unterstützt werden. Einen Grund für diese Begrenzung nennt Apple zwar zunächst nicht, er lässt sich aber schnell zusammenreimen. Einerseits haben diese beiden Modelle eine stärkere Maschinenlerneinheit als die anderen erhältlichen Apple-Smartphones, sie verfügen über einen A17-Pro-Chip, während iPhone 15 und iPhone 15 Plus noch mit dem älteren A16 auskommen müssen.

Noch wichtiger dürfte aber ein anderer Faktor sein: Es sind die einzigen beiden iPhone-Modelle, die 8 GB RAM haben. Das ist deswegen wichtig, weil die Apple Intelligence ja lokal auf dem Gerät laufen soll, Apple dafür ein eigenes großes Sprachmodell (LLM) auf die eigenen Smartphones packt. Dass solche LLMs gehörig Arbeitsspeicher brauchen, hat sich in den vergangenen Monaten schon bei der Konkurrenz gezeigt, auch Googles Gemini Nano läuft minimal auf Systemen mit 8 GB RAM, zunächst hatte man das Ganze sogar auf einige wenige Smartphones mit 12 GB RAM beschränkt. Dazu passt auch, dass sehr wohl ältere iPads und Macbooks mit ARM-Chip unterstützt werden – so sie genügend RAM haben.

Was passiert in der Cloud?

Klingt alles schlüssig, Apple macht es dann aber doch noch etwas schwerer, dieser Argumentation ganz zu folgen. Immerhin hat man parallel dazu auch ein System namens Private Cloud Compute vorgestellt. Dieses ist explizit dazu gedacht, aufwendigere Aufgaben zu übernehmen, also Dinge, für die das Smartphone zu schwach ist. All das in einer Weise, die trotz Datenübertragung starke Datenschutzgarantien abgeben soll.

Doch während Apple zum Aufbau von Private Cloud Compute ungewohnt – und erfreulich – viele Details verrät, fehlt bislang ein nicht ganz unwichtiges Detail: welche von den vorgestellten Features eigentlich dort laufen sollen. Die meisten präsentierten Funktionen sollten nämlich problemlos lokal auf aktuellen iPhones laufen können, brauchen die Cloud-Anbindung also nicht.

Die – ohnehin erst später folgende – Einbindung von ChatGPT in Siri hat damit ebenfalls nichts zu tun, das wird schlicht direkt auf den Servern von OpenAI laufen – und nicht in der Private-Cloud-Compute-Umgebung. Blieben noch wenige einzelne Aufgaben wie die Bildgenerierung, dafür klingt der Aufwand des gesamten Systems aber wieder etwas gar groß. Aber wer weiß, vielleicht wird die Nutzung dieses Cloud-Systems ja mit der nächsten iPhone-Generation noch weiter ausgebaut.

Nicht alles geht in der Cloud

Interessant ist all das im Kontext der Hardwareunterstützung, weil im Vorfeld auch die Rede davon war, dass die Private-Cloud-Compute-Umgebung quasi als Lückenfüller für zu schwache lokale Hardware einspringen könnte – also etwa auf älteren iPhones. Genau das scheint nun aber nicht der Fall zu sein. Wirklich überraschend ist das aber eigentlich nicht, viele der unter Apple Intelligence geführten Funktionen würden stark unter einer Abwicklung in der Cloud leiden, da der zusätzliche Overhead durch die Netzwerkverbindung zu unweigerlichen Verzögerungen führt, was je nach Feature den Ablauf stark stören würde.

Ein eigenes LLM

Am Rande sei noch eine derzeit bei vielen Berichten und Reaktionen zu sehende Verwirrung aufgeklärt: All die Dinge, die der iPhone-Hersteller unter Apple Intelligence führt, haben nicht das Geringste mit dem vieldiskutierten Deal mit ChatGPT-Hersteller OpenAI zu tun. Er dreht sich lediglich um die optionale und externe Anbindung von ChatGPT in Siri. Alle anderen KI-Features basieren auf einem von Apple selbst entwickelten LLM.

Zu besagtem LLM liefert Apple ebenfalls einige interessante Details, auch wenn die Vergleiche mit der Konkurrenz daran kranken, dass man Googles Gemini Nano komplett ausblendet. Jedenfalls soll das LLM mehr als drei Milliarden Parameter aufweisen und auf einem iPhone 15 Pro 30 Tokens pro Sekunden liefern können. Passend dazu gibt es auch eine stärkere Cloud-Version desselben Modells, die dann eben in der Private-Cloud-Compute-Umgebung laufen soll.

Nicht so schnell

Ein zentraler Nachteil der aktuellen Version: Sie ist auf Englisch beschränkt. Wer andere Sprachen nutzen will, muss sich noch etwas gedulden. Apple spricht in diesem Zusammenhang nur vage vom kommenden Jahr. Das betrifft natürlich dann auch all die vorgestellten Features.

Anders gesagt: Zumindest außerhalb der USA und des englischsprachigen Raums ist der Drang, sich wegen Apple Intelligence ein neues Smartphone zu kaufen, fürs Erste noch gering. Mittelfristig könnte das natürlich anders aussehen, und das dürfte Apple auch nicht ganz unrecht sein. Damit steht das Unternehmen wiederum nicht allein da: Alle Hersteller hoffen derzeit, mit KI-Funktionen die zuletzt schwächelnden Hardwareverkäufe wieder frisch anzukurbeln. Ob dieser Plan wirklich aufgeht – das ist dann noch einmal eine ganz andere Frage. (Andreas Proschofsky, 11.6.2024)