Wo war die ganze KI auf der WWDC 2023?
HeimHeim > Nachricht > Wo war die ganze KI auf der WWDC 2023?

Wo war die ganze KI auf der WWDC 2023?

Jun 14, 2023

Nachdem ihr Siegel durch die Veröffentlichung von ChatGPT im vergangenen November gebrochen wurde, ist die generative KI mit einer Wildheit in die Mainstream-Gesellschaft eingebrochen, wie man sie seit Pandoras berühmtem Missgeschick mit der Elendsbüchse nicht mehr erlebt hat. Die Technologie ist plötzlich allgegenwärtig, und Startups und Branchenführer bemühen sich gleichermaßen darum, dieses intelligente Feature des Tages in ihre vorhandenen Code-Stacks zu integrieren und das Transformationsversprechen maschinengenerierter Inhalte in jede ihrer Apps zu integrieren. An diesem Punkt im Hype-Zyklus wären Sie ein Dummkopf, wenn Sie Ihre GenAI-Erfolge nicht von den Dächern schreien würden; Es ist schnell zur einzigen Möglichkeit geworden, trotz des Lärms der anpassbaren Chatbots und selbstproduzierenden Powerpoint-Folienverkäufer, die den Markt überschwemmen, gehört zu werden.

Wenn die jüngste I/O-Konferenz von Google oder das neue engagierte Entwicklungsteam von Meta Anzeichen dafür wären, bereiten sich auch die größten Player der Technologiebranche darauf vor, voll auf GenAI zu setzen. Die Veranstaltung von Google konzentrierte sich auf die KI-Ambitionen des Unternehmens rund um Bard und PaLM 2, vielleicht sogar zum Nachteil der angekündigten Hardware, einschließlich der Pixel Fold- und 7a-Telefone sowie des Pixel Tablets. Von den Smart Compose-Funktionen von Gmail über den Real Tone and Magic Editor von Camera, Project Tailwind bis hin zu den generativen Hintergrundbildern von 7a – KI war das erste, was jeder Alphabet-Führungskraft auf der Zunge lag, der die Shoreline-Bühne betrat.

Wenn Sie jedoch jedes Mal zwei Finger getrunken hätten, wenn Apple es während seiner Keynote zur WWDC 2023 erwähnte, wären Sie absolut nüchtern.

Null – so oft hat ein Moderator auf der Bühne auf der WWDC 2023 den Begriff „künstliche Intelligenz“ ausgesprochen. Am nächsten an KI kamen wir „Luft“ und der Begriff „maschinelles Lernen“ wurde genau sieben Mal erwähnt.

Tolle Angebote für Unterhaltungselektronik direkt in Ihren Posteingang, kuratiert vom Redaktionsteam von Engadget. Siehe Neueste

Bitte geben Sie eine gültige E-Mail-Adresse ein

Bitte wählen Sie einen Newsletter aus

Durch Ihr Abonnement stimmen Sie den Nutzungsbedingungen und Datenschutzrichtlinien von Engadget zu.

Das heißt nicht, dass Apple nicht stark in die KI-Forschung und -Entwicklung investiert. Die während der Keynote am Dienstag ausgestellten Produkte waren voller Technologie. Die „Ducking-Autokorrektur“-Funktionen werden durch maschinelles Lernen auf dem Gerät unterstützt, ebenso wie das Live-Video auf dem Sperrbildschirm (das es zur Synthese von Interstitial-Frames nutzt) und die inspirierenden personalisierten Schreibansagen der neuen Journal-App. Die Funktionen zum automatischen Ausfüllen von PDFs basieren auf Bildverarbeitungssystemen, um zu verstehen, welche Felder wohin verschoben werden – der neue Kurzsichtigkeitstest der Health Apps funktioniert ebenfalls, nur anhand der Bildschirmentfernung Ihres Kindes – während AirPods Ihre Wiedergabeeinstellungen jetzt an Ihre Vorlieben und die vorherrschenden Umgebungsbedingungen anpassen. Alles dank maschineller Lernsysteme.

Es ist nur so, dass Apple nicht darüber gesprochen hat. Zumindest nicht direkt.

Auch wenn es um die innovativen Funktionen des neuen Vision Pro-Headsets geht – sei es die Verarbeitung natürlicher Sprache, die in die Spracheingaben einfließt, Audio-Raytracing, die schwarze Magie der maschinellen Bildverarbeitung oder die Echtzeit-Handgestenverfolgung und Optic ID – Die Diskussion konzentrierte sich weiterhin darauf, welche Vorteile die Headset-Funktionen den Benutzern bieten können. Nicht das, was das Headset für den Stand der Technik oder den Wettlauf um die Marktüberlegenheit leisten könnte.

Der offenen Beschreibung der digitalen Grundlagen seiner maschinellen Lernsysteme kam Apple während der Veranstaltung am nächsten, als es die Persona-Funktion des Vision Pro beschrieb. Da die Anwendungen des Geräts stark auf Spiele, Unterhaltung und Kommunikation ausgerichtet sind, gab es nie eine Chance, dass wir das durchstehen würden, ohne mit diesen Geräten am Kopf FaceTime-Anrufe tätigen zu müssen. Da ein FaceTime-Anruf, bei dem alle hinter einem Headset versteckt sind, den Zweck eines Videoanrufs zunichte machen würde, nutzt Apple stattdessen ein komplexes maschinelles Lernsystem, um Kopf, Rumpf, Arme und Hände des Vision Pro-Trägers – auch bekannt als „ihr“ – digital nachzubilden. Persona."

„Nach einem schnellen Registrierungsprozess mithilfe der Frontsensoren des Vision Pro verwendet das System einen fortschrittlichen Encoder-Decoder und ein neuronales Netzwerk, um Ihre digitale Persönlichkeit zu erstellen“, sagte Mike Rockwell, Vizepräsident der Technology Development Group von Apple, während der Veranstaltung. „Dieses Netzwerk wurde an einer vielfältigen Gruppe von Tausenden von Personen trainiert und liefert eine natürliche Darstellung, die sich dynamisch an Ihre Gesichts- und Handbewegungen anpasst.“

KI wurde während der gesamten Veranstaltung größtenteils als Nebensache und nicht als Verkaufsargument behandelt, was Apple sehr zugute kam. Apple bricht mit der karnevalsähnlichen Atmosphäre, die derzeit die Entwicklung generativer KI umgibt, und behält nicht nur sein distanziertes und elitäres Branding bei, sondern distanziert sich auch von Googles aggressiver Werbung für die Technologie und erleichtert scheuen potenziellen Käufern die Freuden der Gesichtserkennung. montierte Hardware.

Steve Jobs benutzte oft den Ausdruck „es funktioniert einfach“, um die Produkte des Unternehmens zu beschreiben – was implizierte, dass sie dazu gedacht waren, Probleme zu lösen und nicht, den Benutzern zusätzlichen Ärger zu bereiten – und es scheint, dass Apple diese Designphilosophie zu Beginn des Räumlichen neu entfacht hat Computerzeitalter. In unserer zunehmend dysfunktionalen, volatilen und unberechenbaren Gesellschaft könnte das Versprechen der Einfachheit und Zuverlässigkeit, dass etwas, irgendetwas wie beworben funktioniert, genau das sein, was Apple braucht, um Käufer dazu zu bringen, den geforderten Preis von 3.500 US-Dollar für den Vision Pro zu akzeptieren.