Künstliche Intelligenz: Was bedeutet das für iPhone- und Mac-User?

A12 Bionic, Neural Engine oder maschinelles Lernen: Wir erklären, was hinter den futuristischen Begriffen steckt.

Vielleicht habt ihr schon mal auf eurem iPhone die Spotlight-Suche gestartet und euch gefragt, wie das iPhone die hier angezeigten Siri-Vorschläge auswählt. Die Antwort ist einfach: anhand eurer Gewohnheiten. Dazu zählt neben dem üblichen Zeitpunkt auch euer üblicher Standort. Wenn ihr also häufig am Morgen die Mail-App öffnet, erscheint diese am Morgen in den Suchvorschlägen. Verwendet ihr die ÖPNV-App meistens in der Nähe des Bahnhofs, taucht diese ebenfalls automatisch in der Such-Ansicht auf. Mit anderen Worten: iOS ist in der Lage, Muster zu erkennen und darauf basierend Empfehlungen zu geben. Im Bereich der künstlichen Intelligenz wird dieser Prozess wiederum als Machine Learning (auf Deutsch: maschinelles Lernen) bezeichnet. Aus Mustern und Gesetzmäßigkeiten entsteht aus Daten generiertes Wissen, das sich an veränderte Umstände anpasst und gleichzeitig aus der Analyse der historischen Daten Vorhersagen trifft.

Auch Face ID funktioniert mit künstlicher Intelligenz. Durch die erstmalige Einrichtung der Gesichtserkennung trainiert ihr iOS und bringt dem System bei, wie euer Gesicht aussieht. Entsperrt ihr das iPhone oder iPad Pro später, gleicht der Prozessor in Sekundenschnelle das gespeicherte Wissen mit dem Live-Bild, also neuen Informationen, ab. Da jeder Scan als neue Information wiederum in das gelernte Wissen einfließt, funktioniert Face ID nach mehrmaligem Entsperren immer besser.

Bessere Fotos mit maschinellem Lernen

Beim neuen iPhone XR kommt künstliche Intelligenz auch in der Kamera-App zum Einsatz. Anders als das iPhone X, XS und XS Max verfügt das XR nicht über zwei Kameras, um den Unterschied zwischen scharfem Motiv und unscharfem Hintergrund zu erfassen. Stattdessen erkennt die Kamera-App Vorder- und Hintergrund mithilfe von künstlicher Intelligenz, im Fachjargon als trainiertes Machine-Learning-Modell bezeichnet. Dieses Modell hat Apple mit Millionen von Referenzen gefüttert und ihm so den Unterschied zwischen „scharf“ und „unscharf“ beigebracht. Da die als Referenz aber nur Menschen verwendet wurden, funktioniert der Portrait-Effekt nur mit Gesichtern, nicht aber mit anderen Motiven wie Katzen oder Blumen.

Core ML: Künstliche Intelligenz auf Abruf

iOS-Entwickler können künstliche Intelligenz mithilfe von Apples Core-ML-Programmiergerüst in ihre Apps integrieren. Somit müssen diese keine eigene künstliche Intelligenz aufbauen, sondern verweisen einfach auf die bereits bestehende. Zu den von Apple unterstützen Anwendungen zählen die Bildanalyse und Spracherkennung. Ein einfaches Beispiel, wie das in der Praxis aussieht, zeigt die kostenlose App DisDat. Ziel der App ist es, eine „neue Sprache wie ein Kind zu lernen: indem man [mit dem iPhone] auf ein Objekt zeigt und fragt ,Was ist das?‘“ Dabei wird das iPhone mit eingeschalteter Kamera einfach auf ein Objekt gehalten und zeigt nach wenigen Sekunden den Namen des erkannten Objekts in der zuvor gewählten Sprache an.

Auf dem Mac hilft Core ML bisher vor allem bei der Bildbearbeitung. Die Grafiksoftware Pixelmator Pro korrigiert bei mehreren Bildern gleichzeitig den Weißabgleich und die Farben und fügt Effekte hinzu. Welche Korrekturen optimal sind, haben die Entwickler der Software anhand von 20 Millionen Referenzen beigebracht. Wie anfangs beschrieben, besteht die Aufgabe der künstlichen Intelligenz anschließend darin, anhand von Vergleichsdaten ein Bild mit ähnlichen Eigenschaften wie der Referenz zu finden, um für dieses die gleichen Bearbeitungsschritte vorzunehmen.

Prozessor für künstliche Intelligenz

Seit dem iPhone X verbaut Apple neben herkömmlichen Prozessoren auch die Neural Engine (auf Deutsch: neuronaler Motor). Dieses Bauteil ist auf künstliche Intelligenz und somit Prozesse wie Face ID, Kamera-Funktionen, Bilderkennung und mehr ausgelegt. Herkömmliche Prozessoren sind zwar auch in der Lage, mit künstlicher Intelligenz zu arbeiten, sind dabei aber weniger effizient. Die Neural Engine sorgt gleichzeitig für mehr Leistung und weniger Stromverbrauch. Eine optimale Kombination aus Software und Hardware, für die Apple bekannt ist.