Zum Hauptinhalt springen

App Functions und KI im mobilen OS

KI will nicht mehr nur chatten
#

KI ist längst nicht mehr einfach nur ein Chatfenster. Der nächste Schritt ist ziemlich klar: Sie wandert direkt ins Betriebssystem.

Nicht nur zum Fragen beantworten, sondern um Dinge tatsächlich zu erledigen:

  • eine Notiz anlegen
  • eine Nachricht verschicken
  • Essen nachbestellen
  • einen Termin verschieben
  • eine Aufgabe abhaken
  • eine Reise planen?

Genau hier wird es gerade spannend. Denn sowohl Google als auch Apple arbeiten daran, dass Assistenten nicht mehr nur „smart klingen“, sondern wirklich mit Apps zusammenarbeiten.

Das klingt alles genau nach dem MCP Konzept. Nur ist es kein MCP, sondern direkt im OS integirert. Das geht zur Zeit unfassbar schnell. Sei es nun WebMCP oder eben AppFunctions.

Android AppFunctions: Apps bekommen eine KI-Schnittstelle
#

Google hat mit App Functions ein Konzept vorgestellt, das im Kern ziemlich simpel ist: Apps können definierte Funktionen für Gemini bereitstellen.

Heißt konkret:
Eine App sagt dem System, was sie kann. Gemini kann diese Fähigkeiten dann gezielt aufrufen.

Beispiel:

  • „Erstelle eine Notiz“
  • „Füge diesen Text meiner Einkaufsliste hinzu“
  • „Bestelle meine letzte Bestellung nochmal“
  • „Starte mein Lauftraining“

Das Spannende daran: Die KI muss nicht mehr irgendwie die Oberfläche erraten. Sie muss sich nicht durch Menüs hangeln oder so tun, als wäre sie ein Mensch, der auf Buttons tippt. Stattdessen bekommt sie strukturierte, maschinenlesbare Funktionen.

Und genau das ist der interessante Teil:
Die App ist dann nicht mehr nur UI. Sie wird zu einer Sammlung von Fähigkeiten.

Wenn man sich die API anschaut, wirkt das Ganze sogar überraschend sauber. Fast schon verdächtig sauber. Wir reden hier schließlich über Google. Da bleibt immer die leise Angst, dass so ein API in den nächsten 12 Monaten noch 13 Identitätskrisen durchmacht.

Apple hatte die Idee schon auf der WWDC 2024
#

Apple hat auf der WWDC 2024 ziemlich deutlich gezeigt, wohin die Reise gehen soll.

Auf der Bühne hieß das große Thema Apple Intelligence. Ein zentraler Teil davon war die neue Siri: kontextbewusster, persönlicher und in der Lage, Aktionen in und zwischen Apps auszuführen.

Der technische Unterbau dafür heißt bei Apple App Intents.

Das Prinzip ist sehr ähnlich:
Apps beschreiben, welche Aktionen sie anbieten, und Siri kann diese Aktionen nutzen.

Die Idee ist also nicht neu. Apple war damit öffentlich sogar früher auf der Bühne. Nur ist aus dieser großen Vision bis heute noch nicht ganz der Alltag geworden, den die Demo damals versprochen hat. Gerade bei Siri bleibt vieles noch auf dem Level „klingt stark“ statt „funktioniert wirklich ständig zuverlässig“.

Und genau deshalb ist Googles Vorstoß gerade so interessant:
Apple hatte die große Präsentation.
Google könnte am Ende schneller die praktisch nutzbare Infrastruktur liefern.

Warum das mehr ist als nur ein neues API
#

Auf dem Papier klingt App Functions erstmal nach Entwicklerfutter. In Wirklichkeit könnte das aber ein ziemlich großer Wandel sein.

Bisher war die App selbst das Produkt:

  • Icon
  • Oberfläche
  • Nutzerführung
  • Wiedererkennung
  • Markenbindung

In einer Welt mit Gemini oder Siri verschiebt sich das vielleicht.

Dann will ich nicht mehr:
„Ich öffne App X, klicke mich durch fünf Screens und suche die richtige Funktion.“

Dann will ich eher:
„Mach das einfach.“

Das klingt bequem. Ist es auch. Aber es verändert die Rolle von Apps komplett.

Vielleicht öffnen wir in Zukunft viele Apps gar nicht mehr aktiv. Vielleicht reden wir nur noch mit dem Assistenten, und im Hintergrund wird einfach die passende Funktion der passenden App ausgeführt.

Dann ist die App nicht mehr der Ort, an den ich gehe.
Sie ist eher das System, das etwas für mich erledigt.

Bis auf die 2-3 Apps, die man nur zum Zeitvertreib verwendet. TikTok wird davon ganz sicher nicht tangiert sein.

Und was passiert dann mit UI und UX?
#

Das ist für mich eigentlich der spannendste Teil an der ganzen Sache.

Wenn 80 Prozent der Interaktion irgendwann über Gemini oder Siri laufen, dann stellt sich eine ziemlich unbequeme Frage:

Brauchen wir dann noch all diese aufwendig gebauten Interfaces?

Natürlich: Ganz verschwinden wird UI nicht. Irgendwer muss komplexe Dinge immer noch sichtbar, kontrollierbar und vertrauenswürdig machen. Aber vielleicht verschiebt sich der Fokus.

Vielleicht ist gute UI in Zukunft nicht mehr der Haupteinstiegspunkt, sondern nur noch das Sicherheitsnetz:

  • zum Prüfen
  • zum Korrigieren
  • für Sonderfälle
  • für komplexe Workflows
  • für Vertrauen und Transparenz

Das wäre schon ein krasser Wandel.

Denn wenn ich an viele große Apps denke, dann denke ich zuerst an ihre Oberfläche.
Instagram.
YouTube.
WhatsApp.
TikTok.

Die UI ist oft das, was hängen bleibt. Sie ist die Identität der App.

Aber was passiert, wenn neue Apps gar nicht mehr primär über ihre Oberfläche wahrgenommen werden, sondern über das, was sie als Funktion im Hintergrund leisten?

Dann gewinnt vielleicht nicht mehr die App mit der schönsten UX.
Sondern die App, die am zuverlässigsten von Gemini oder Siri angesteuert werden kann.

Das wäre fast schon ein kleiner Kulturschock für die gesamte Mobile-Welt.

Mein Eindruck
#

Ich finde App Functions deshalb so spannend, weil das kein typisches „hier ist noch ein KI-Button“-Feature ist. Es geht tiefer. Viel tiefer.

Google baut damit an einer Welt, in der Gemini nicht nur Antworten gibt, sondern tatsächlich zum Vermittler zwischen Nutzer und Apps wird.

Apple will mit Siri offensichtlich in dieselbe Richtung. Der Unterschied ist nur: Bei Apple wurde die Vision zuerst groß erzählt. Bei Google sieht es gerade eher so aus, als würde man das Fundament dafür konkret bauen.

Und genau da wird es interessant.

Denn wenn Assistenten wirklich zum Standard-Einstiegspunkt werden, dann verändert sich nicht nur, wie wir Smartphones benutzen.
Es verändert auch, wie Apps gebaut werden.

Vielleicht reden wir in ein paar Jahren viel weniger über Screens, Flows und Menüs.
Und viel mehr über Fähigkeiten, Intents, Bestätigungen und Systemintegration.

Oder kürzer gesagt:
Vielleicht stirbt die App nicht.
Aber sie hört auf, sich ständig in den Vordergrund zu drängeln.

Und irgendwo sitzt dann ein UI-Designer, schaut auf seinen perfekt ausgerichteten 8-Pixel-Grid-Spacing-Plan und fragt sich leise:
„Wie bekomme ich das Feedback korrekt in meine Figma-File?“