Apple AR mit dem iPhone: Weg vom Touchscreen
- Apple braucht kein eigenes KI-Gerät: Die Kombination aus iPhone, AirPods und Sensorik bildet bereits eine verteilte KI-Infrastruktur.
- KI-Interfaces verschieben sich vom Display zur Audio- und Gesteninteraktion – ohne neues Hardware-Ökosystem.
- Apples Plattformstrategie antwortet auf KI-Geräte nicht mit einem Produkt, sondern mit Systemintegration....
...und zwar mit einem weißen Band am Case und einem leisen „Pling“ aus dem rechten AirPod. Erinnert sich noch jemand an den TED Talk „Sixth Sense“ von Pranav Mistry?
Damals, im Video: Beamer am Hals, bunte Fingernägel, Zukunft pur.
Vor ein paar Monaten: Rabbit R1 und Human AI Pin machen das Konzept wieder hip, diesmal mit KI, Cloud und einem Abo-Modell. Während aktuell OpenAI an „etwas mit Jony Ive“ bastelt, lehnt sich Apple zurück und zieht vielleicht genau aus der Kombi seiner Hardware seine Stärke:
• iPhone um den Hals.
• AirPods im Ohr.
• Watch am Handgelenk.
Fertig ist das Anti-KI-Gadget!
Nur meine Ideen, natürlich kein echtes Apple-Produkt. So KÖNNTE aber Apples Antwort auf smarte Sonnenbrillen von Meta oder OpenAIs Lösung aussehen. Und es gibt genug Menschen mit einem iPhone-Case "am Band".
Kameramodul zeigt in die Umwelt
Mit der Gestenerkennung der Apple Watch wird die Kamera am iPhone aktiviert und via Sprachausgabe die Info in die AirPods übertragen. Kein neues Gerät, keine neue Schnittstelle, einfach nur ein smarter Remix aus Dingen, die du eh schon besitzt.
Und plötzlich wirkt das iPhone nicht mehr wie ein Auslaufmodell, sondern wie ein Transformer im Ruhemodus.
Diese Zeilen sind eine Inspiration aus dem Jahr 2025 auf LinkedIn und Teil meiner kuratierten Impulse auf der Website. Ein paar Wochen später stellte Apple dann sein iPhone-Halterung "als Strumpf" = iPhone Pocket vor.