Ein Blog über Hiking-, Fitness-, and Gesundheits-Technologie

iOS 17/MacOS 14 und die „Photo Subject Lookup“ Funktion

Ja, ich bin nicht ganz richtig im Kopf und habe die Betas von iOS 17 und MacOS 14 installiert. Jetzt werden meine Messages viel gänsiger.
Der Blick und die Federn dieser Gans erinnern mich sehr an die wertenden Blicke meiner Deutschlehrerin in der 4. Klasse.

Gestern war ich im Stadtpark. iOS 17 lebt seit gestern auch auf meinem Handy, also wollte ich ein bisschen mit der Tier- und Pflanzenerkennung spielen. Und, ehrlich, ich bin begeistert.

Nicht nur hat der neue Algorithmus Meerschweinchen und Kaninchen selbst als kuschelndes Bündel auseinanderhalten können, es ging sogar in einem Video. Für Release (man erinnere sich, das hier ist die erste Beta) soll das angeblich auch wie Amazon’s „Radar“ funktionieren, also eine sich ständig erneuernde Liste dessen, was auf dem Video gerade gezeigt wird.

Das Beste dran ist, das das alles lokal passiert, also weder Apple noch ein anderer Drittanbieter rausfindet, was ich denn so auf meinen Videos habe. Wäre ja ganz schlimm, wenn Apple wüsste, dass ich Graugänse nachschauen muss.

Subjekte werden jetzt auch via API aufrufbar. Mit zehn Zeilen Swift konnte ich schnell etwas zusammenbasteln, das meine Photos auf „Tier“ durchsucht, in diesen das Tier analysiert, das Subjekt dann isoliert, und dieses in ein Extrabild speichert. Für die Graugans oben sieht das dann so aus:

Eine Graugans, isoliert von ihrer Umgebung. Bitte mir dafür nicht PETA auf den Hals schicken. Und weil iOS 17 jetzt aus sowas auch Sticker machen kann… werden Messages mit mir viel … gänsiger.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert