
Tim Cook: Die neue Siri unter dem Apple-Intelligence-Dach liegt im Plan – Launch 2026
Seit Apple seine KI-Strategie unter dem Banner Apple Intelligence neu ausgerichtet hat, stand eine Frage im Raum: Kann der Konzern Tempo und Anspruch zusammenbringen? Auf dem Earnings Call zum dritten Quartal 2025 hat Tim Cook die Richtung bekräftigt. Man mache „gute Fortschritte“, die überarbeitete Siri sei weiterhin für 2026 vorgesehen. Das passt zu den Signalen rund um ein großes Frühlings-Update von iOS – voraussichtlich iOS 26.4 –, das die erste größere Welle von Apple-Intelligence-Funktionen freischalten soll.
Worum es dabei wirklich geht: Apple will Siri von einer cleveren Sprachschnittstelle zu einem agentischen Assistenten aufwerten. Ein System, das versteht, was Sie gerade tun, Ihren persönlichen Kontext berücksichtigen kann, den Bildschirminhalt erkennt und eigenständig Aktionen über App-Grenzen hinweg ausführt. Gelingt dieser Sprung, wandelt sich Siri vom Frage-Antwort-Werkzeug zum verlässlichen Mit-Erlediger, der Klicks spart und Abläufe strafft.
Drei Säulen, die Apple ab 2026 ausrollen will
- In-App-Aktionen: Per Stimme löst Siri kontextbewusste Aufgaben direkt in unterstützten Apps aus. Beispiele: einen Artikel zur Einkaufsliste hinzufügen, eine Nachricht im richtigen Messenger versenden oder eine Playlist starten – ohne Menütauchen und ohne zuvor gebastelte Kurzbefehle. Die Aktionen entstehen dynamisch aus der Situation heraus.
- Persönlicher Kontext: Die Assistentin nutzt – mit Privacy by Design und On-Device-Prinzip – vorhandene persönliche Daten, um passgenau zu helfen. Sagen Sie etwa: „Finde den Podcast, den mir Tom letzte Woche geschickt hat“, durchsucht Siri Ihre Nachrichten und liefert den passenden Link.
- Bildschirm-Bewusstsein: Siri versteht, was aktuell auf dem Display zu sehen ist, und handelt entsprechend. Beim Lesen eines langen Artikels kann sie eine Zusammenfassung erstellen und die Kernaussagen direkt an eine Kollegin in Nachrichten schicken – als verketteter Ablauf, ohne Kopieren und App-Wechsel.
Dieses Dreieck – Sprachverständnis, UI-Bewusstsein, sicherer Zugriff auf persönliche Informationen – beschreibt den praktischen Kern von Apple Intelligence: Alltagsreibung abbauen, App-Wechsel reduzieren, Privatsphäre wahren.
Vorgeschmack auf dem Mac: Sky als Agent auf dem Desktop
Wer macOS nutzt, kann das agentische Arbeiten bereits erahnen: Sky läuft in einem kleinen, stets sichtbaren Fenster, erkennt den Bildschirminhalt und setzt Befehle in Ketten um – etwa eine Webseite zusammenfassen, daraus eine Nachricht formulieren und diese über Nachrichten an einen bestimmten Kontakt schicken. Power-User erweitern die Möglichkeiten mit eigenen Skripten, Shortcuts und Kommandos. Bemerkenswert: OpenAI hat kürzlich die Software Applications Incorporated übernommen – jene Firma, die Sky entwickelt hat. Das unterstreicht, wie heiß der Wettbewerb um die „Do-it-for-me“-Schicht auf PCs gerade ist.
Fortschritt mit Widerhaken
Der Optimismus bedeutet nicht, dass alles glattläuft. Bereits im August wurde berichtet, dass Apple-Teams mit Zuverlässigkeit und Konsistenz zu kämpfen hatten – insbesondere bei App-übergreifenden Abläufen und sensiblen Szenarien wie Banking. Zusätzlich sorgt Personalwechsel für Unruhe: Ke Yang, erst kürzlich zur Leitung des AKI-Teams (Answers, Knowledge & Information) berufen, soll zu Meta wechseln. Genau dort liegen die Sollbruchstellen jedes Assistenten: Faktenhaltigkeit, Sicherheit und Integrationsbreite entscheiden darüber, ob Nutzer echtes Vertrauen fassen.
Worauf es bis 2026 ankommt
Entwickler-Mitnahme. In-App-Aktionen und Bildschirm-Bewusstsein skalieren nur, wenn Drittanbieter sichere Aktionspunkte öffnen. Von Apple werden klare APIs, transparente Berechtigungen und strikte Datengrenzen erwartet – nützlich, aber kontrolliert.
Verlässlichkeit unter Druck. Eine Nachricht senden ist die Kürzeste. Anspruchsvoll sind mehrstufige, kontextreiche Flows – erst recht, wenn Identität oder Geld im Spiel sind. Hier werden Zwei-Faktor-Abläufe, Bestätigungen und App-Handover zur Nagelprobe.
Lieferkadenz. Vieles spricht für Etappen statt Big Bang. Sollte iOS 26.4 der Frühlings-Anker sein, folgen mit hoher Wahrscheinlichkeit Betas zur Härtung sowie parallele Ausbauten in macOS und iPadOS, damit das Erlebnis geräteübergreifend stimmig bleibt.
Privatsphäre als Leitplanke. Apple wird sich an der Zusicherung messen lassen, dass sensible Kontexte auf dem Gerät verarbeitet und Berechtigungen fein steuerbar bleiben. Nur so entsteht die nötige Akzeptanz für tiefere Automatisierung.
Fazit
Apple richtet Siri auf eine aktiv handelnde, kontextbewusste Zukunft aus – und das Zeitfenster 2026 steht. Kommen In-App-Aktionen, persönlicher Kontext und Bildschirm-Bewusstsein wie skizziert, wächst Siri vom Wissensabfrager zur Assistenz, die wirklich Aufgaben erledigt. Die entscheidende Frage ist weniger das Ob als das Wie gut: Kann Apple Zuverlässigkeit, Vertrauen und breite Entwickler-Unterstützung liefern? Genau daran wird sich zeigen, ob Apple Intelligence mehr ist als ein starkes Label – nämlich ein unaufdringlicher Helfer im Alltag.
3 kommentare
Wenn Siri wirklich Dinge ERLEDIGT statt nur zu reden – ich bin dabei 😂
Banking per Assistent? Nur mit richtig guter Sicherheit, sonst nope
Nutze Sky am Mac – macht süchtig. Bin gespannt, wie Apple das nativ löst