Apple erweitert App-Erlebnisse mit dem Foundation Models Framework

PRODUKTE/UPDATE: Apple erweitert App-Erlebnisse mit dem Foundation Models Framework

Mit iOS 26, iPadOS 26 und macOS 26 startet Apple das neue Foundation Models Framework, Teil von Apple Intelligence. Entwickler:innen erhalten damit erstmals direkten Zugriff auf große Sprachmodelle direkt auf dem Gerät. So lassen sich intelligente Funktionen in Apps integrieren, die privat bleiben und auch offline nutzbar sind.

Das Framework eröffnet Möglichkeiten, die bislang komplexe Backend-Strukturen erfordert hätten. Von personalisierten Quizfragen für Schüler:innen über Trainingsanalysen bis hin zu kontextbasierten Tagebuch-Prompts – die Einsatzfelder sind breit gefächert.

„Wir freuen uns, dass Entwickler:innen auf der ganzen Welt bereits intelligente Features mit Datenschutz in ihre Apps integrieren. Die In-App Erlebnisse, die sie damit schaffen, sind vielseitig und kreativ und zeigen, welches enorme Potenzial das Foundation Models Framework eröffnet“, sagt Susan Prescott, Vice President of Worldwide Developer Relations bei Apple.

Erste Beispiele aus Fitness, Journal und Bildung

  • SmartGym verwandelt einfache Workout-Beschreibungen in strukturierte Trainingspläne mit Wiederholungen, Pausen und Gerätevorschlägen. Zudem fasst die App Trainingsdaten monatlich zusammen und erstellt Coaching-Nachrichten, die sich am Kommunikationsstil der Nutzer:innen orientieren.
    „Das Foundation Models Framework ermöglicht es uns, Features auf dem Gerät bereitzustellen, die früher undenkbar gewesen wären,“ sagt Matt Abras, CEO von SmartGym. „Es ist einfach zu implementieren und zugleich unglaublich leistungsstark.“

  • Stoic, eine Journaling-App, generiert auf Basis vorheriger Einträge hochgradig personalisierte Prompts. Stimmung oder Schlafqualität fließen in einfühlsame Hinweise ein, die ausschließlich lokal auf dem Gerät bleiben.
    „Mit dem Foundation Models Framework passen sich Prompts und Reflexionen nun an den Gemütszustand der Nutzer:innen an, sodass sich das Erlebnis persönlich anfühlt und sich von Tag zu Tag weiterentwickelt“, sagt Maciej Lobodzinski, Gründer von Stoic. „Was mich besonders beeindruckt hat, war, wie schnell wir diese Ideen umsetzen konnten. Features, die früher eine komplexe Backend-Infrastruktur erfordert haben, laufen jetzt nativ und mit minimalem Einrichtungsaufwand direkt auf dem Gerät. Dadurch konnte unser kleines Team in kürzester Zeit enormen Mehrwert schaffen und dabei sämtliche Nutzerdaten privat halten, da alle Einblicke und Prompts generiert werden, ohne dass jemals etwas ihr Gerät verlässt.“

  • CellWalk erlaubt es Nutzer:innen, eine 3D-Zelle bis auf molekulare Ebene zu erkunden. Begriffe können angetippt werden, das Framework liefert dialogorientierte Erklärungen und passt diese an das Wissensniveau der Lernenden an.
    „Das Modell auf dem Gerät liefert großartige Performance“, sagt Tim Davison, der Entwickler von CellWalk. „Unsere Visuals sind schon immer interaktiv gewesen, aber durch das Foundation Models Framework wird der Text selbst lebendig. Die in unserer App versteckten wissenschaftlichen Daten werden zu einem dynamischen System, das sich an jeden Lernenden anpasst. Die zuverlässigen strukturierten Daten, die das Modell produziert, haben eine reibungslose Integration in unsere App möglich gemacht.“

Mit Apples Foundation Models Framework können Entwickler:innen wie SmartGym, Stoic und VLLO neue intelligente Features umsetzen, indem sie direkt auf dem Gerät auf das große Sprachmodell zugreifen, auf dem Apple Intelligence basiert.

 

Kreativität und Produktivität

Auch im Bereich Produktivität setzen Entwickler:innen auf Apples Framework:

  • Stuff erkennt beim Tippen automatisch Daten, Tags und Listen und wandelt handschriftliche Notizen in Aufgaben um.
    „Das Foundation Models Framework in iOS 26 hat die neuen Arbeitsabläufe in Stuff revolutioniert,“ sagt Austin Blake, der Entwickler von Stuff. „Es läuft vollständig auf dem Gerät, ist leistungsstark, zuverlässig und bemerkenswert effizient. Dank seiner Einfachheit konnte ich den Listen Mode und den Scan Mode in einem einzigen Release veröffentlichen — etwas, das sonst deutlich länger gedauert hätte.“

  • VLLO nutzt das Framework, um Videoinhalte automatisch mit Musik und Stickern zu versehen.
    „VLLO integriert das Foundation Models Framework reibungslos mit Vision-Technologien und senkt so die Einstiegshürden für neue Creator“, sagt Kyunghyun Lee, CEO von Vimosoft und iOS Entwickler. „Durch Verwendung des Foundation Models und des Vision Frameworks von Apple konnten wir schnell und effizient fortschrittliche Empfehlungsfunktionen entwickeln – ganz ohne Implementierung komplexer Algorithmen, allein mit einfachen Prompts.“

Weitere Apps wie Signeasy, Agenda, Detail: AI Video Editor, Essayist oder OmniFocus 4 haben ebenfalls neue intelligente Funktionen integriert – von automatischen Dokumentenzusammenfassungen bis hin zu Teleprompter-Skripten.

VLLO schlägt automatisch passende Hintergrundmusik und dynamische Sticker vor – abgestimmt auf jede Szene im Video.

Technische Grundlage

Das Foundation Models Framework ist eng mit Swift verbunden und nutzt ein On-Device-Modell mit drei Milliarden Parametern. Entwickler:innen können dem Modell Tools bereitstellen, die es bei Bedarf aktiv ansprechen kann, um zusätzliche Informationen einzuholen. Antworten erfolgen stets in konsistentem Format.

Das Framework steht ab sofort auf allen Geräten zur Verfügung, die Apple Intelligence unterstützen. In der Betaversion werden die Sprachen Englisch, Französisch, Deutsch, Italienisch, Portugiesisch (Brasilien), Spanisch, Chinesisch (vereinfacht), Japanisch und Koreanisch unterstützt.

BRAND: Apple

virtualdesignmagazine Michael Hiller

FacebookTwitterGoogle+

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert