ML Kit: Google bringt KI-API auf Android und iOS
Mit dem ML Kit bietet Google künftig als Teil seines Firebase-SDK Schnittstellen, um einfache KI-Anwendungen in eigenen Anwendungen zu integrieren. Genutzt werden soll das auf Android und iOS.
Google hat mit dem ML Kit eine Sammlung von Schnittstellen (APIs) für App-Entwickler vorgestellt, die das Implementieren und Verwenden üblicher Machine-Learning-Aufgaben deutlich vereinfachen soll. Genutzt werden kann das neuen Entwicklungskit nicht nur für Googles eigenes Mobilsystem Android, sondern explizit auch unter iOS. Damit tritt Google wohl auch mehr oder weniger in direkte Konkurrenz zu dem von Apple angebotenen Core ML.
Mit Hilfe der neuen Programmierschnittstellen des ML Kit von Google lässt sich Text in Bildern erkennen, ebenso wie menschliche Gesichter oder auch bestimmte touristische Wahrzeichen. Die Sammlung ermöglicht außerdem die Analyse von Barcodes sowie eine automatische Zuordnung von Bildern, indem deren Inhalte detailliert ausgewertet werden. Geplant ist außerdem eine Smart-Reply-Funktion, so dass Apps automatisiert mit ihren Nutzer interagieren können.
Das ML Kit steht grundsätzlich in zwei unterschiedlichen Versionen bereit: Online mit Cloud-Anbindung und offline mit lokalen Modellen. Die Verwendung ist einerseits abhängig von der Netzwerkverfügbarkeit sowie andererseits von der Entscheidung der App-Entwickler. Für die Offline-Nutzung können Tensorflow-Lite-Modelle verwendet werden. Google arbeitet zurzeit noch an einer Möglichkeit, größere Tensorflow-Modelle so in der Cloud zu komprimieren, dass aus ihnen kleinere Lite-Modelle für den Smartphone-Einsatz mit vergleichbare Präzision entstehen.
Zur Umsetzung des ML Kit greift Google auf bereits bestehende Technik zurück. So werden unter Android die API für neuronale Netze genutzt, die mit Android O eingeführt worden ist. Unter iOS soll ein entsprechendes Pendant verwendet werden, also wahrscheinlich das Framework Core ML von Apple. Google greift damit nicht nur auf Technik von Apple zurück, sondern erweitert diese, was Apples Angebot für iOS unter Druck setzen könnte. Immerhin bietet Apple mit seiner Bilderkennung und der Sprachanalyse ähnliche Fähigkeiten, wie Google diese nun angekündigt hat. Nur sind die von Apple nicht plattformübergreifend und möglicherweise kann Google seine Machine-Learning-Expertise ausspielen, um Entwicklern bessere Modelle zu bieten.
? Was soll daran verwunderlich oder Zufall sein? Ist doch die Entwicklung in ungefähr...