Was wir Lippenlesen nennen, ist in Wahrheit ein neues Interface
Apple kauft ein Startup für "lautloses Sprechen" und viele lesen das als KI-News.
Ich halte das für einen Interface-Moment: Stell dir ein Verkaufsgespräch vor, bei dem du Präsentationen steuerst, ohne dass dein Gegenüber hört, wie du steuerst. Oder einen B2B-Call im Zug, ohne dass der Sitznachbar jedes Stichwort mitnimmt.
Privacy matters!
Und Apple löst das nicht mit „mehr Cloud“, sondern mit einer bekannten Kombination: Hardware + On-Device-KI + Ökosystem. Foundation statt Server. Kopfhörer statt Tastatur.
Das wird vermutlich erst belächelt.
So wie Touchscreens.
So wie die ersten AirPods. Damals: Klobürstenohrwitze...
Die eigentliche Frage ist für mich aber nicht: „Ist lautloses Sprechen die bessere Sprachsteuerung?“ Sondern: Was passiert, wenn niemand mehr hören kann, ob du gerade mit einem Menschen sprichst – oder mit einer Maschine?
Vielleicht ist Lippenlesen weniger das Feature.
Und mehr das Ende der Sprache/-eingabe als öffentliche Geste?
Weitere Impulse.