
Gestern war ich im Stadtpark. iOS 17 lebt seit gestern auch auf meinem Handy, also wollte ich ein bisschen mit der Tier- und Pflanzenerkennung spielen. Und, ehrlich, ich bin begeistert.



Nicht nur hat der neue Algorithmus Meerschweinchen und Kaninchen selbst als kuschelndes Bündel auseinanderhalten können, es ging sogar in einem Video. Für Release (man erinnere sich, das hier ist die erste Beta) soll das angeblich auch wie Amazon’s „Radar“ funktionieren, also eine sich ständig erneuernde Liste dessen, was auf dem Video gerade gezeigt wird.
Das Beste dran ist, das das alles lokal passiert, also weder Apple noch ein anderer Drittanbieter rausfindet, was ich denn so auf meinen Videos habe. Wäre ja ganz schlimm, wenn Apple wüsste, dass ich Graugänse nachschauen muss.
Subjekte werden jetzt auch via API aufrufbar. Mit zehn Zeilen Swift konnte ich schnell etwas zusammenbasteln, das meine Photos auf „Tier“ durchsucht, in diesen das Tier analysiert, das Subjekt dann isoliert, und dieses in ein Extrabild speichert. Für die Graugans oben sieht das dann so aus:

Likes
Reposts