Das neuronale Netzwerk hat eine eigene Sprache geschaffen, die Wissenschaftler nicht entschlüsseln können

Das neuronale Netzwerk hat eine eigene Sprache geschaffen, die Wissenschaftler nicht entschlüsseln können

Anfangs schienen die Worte einem Wissenschaftler der Tarabarshchina zu sehen, aber dann stellte sich heraus, dass das neuronale Netz

Das Dall -E -Tool ist ein neuronales Netzwerk, das vom OpenAI -Forschungsunternehmen „ausgebildet“ ist, um realistische Bilder und Kunst aus dem Text in natürlicher Sprache zu generieren. Zuvor stellten die Entwickler fest, dass Dall-E in der Lage ist, nicht verwandte Konzepte zu kombinieren und anthropomorphisierte Versionen von Tieren und Objekten zu erstellen.

Yannis Daras (Giannis Daras), Kandidat der Wissenschaften im Bereich Computerwissen, veröffentlicht diese Woche auf Twitter, Beispiele für das, was er "seine eigene Sprache der AI" bezeichnete.

"Apoploe vesrreitais" - bedeutet Vögel ", schrieb Daras auf Twitter. "Contarra ccetnxniams luryca tanniounons" - bedeutet Käfer oder Schädlinge.

Dall -e 2 arbeitet in Verbindung mit Clip - einem System des Computer Vision, das Openai 2021 bekannt gab.

Dall-e erstellt Illustrationen, Fotos und Renderung, die auf einer einfachen Beschreibung basieren. Zum Beispiel kann sie eine „Katze in einer Schmetterlingskrawatte“ oder „ein Daikon in einem Rudel, der einen Hund spazieren“ darstellen. Clip definiert Objekte und klassifiziert sie basierend auf einer einfachen Beschreibung.

Dies ist beispielsweise das Ergebnis, das das neuronale Netzwerk auf Anfrage von "Cool Panda Rolls auf einem Skate in Santa Monica" erzeugt hat.

Bisher ist der Zugriff auf die neue Version nur für eine Gruppe von Benutzern über eine Warteliste geöffnet. Benutzern ist es untersagt, Bilder zu laden oder zu erstellen, die „Schaden anrichten können“, einschließlich allem, was mit Hass, Nacktheit, obszönen Gesten oder „Verschwörungen oder Ereignissen, die mit aktuellen geopolitischen Ereignissen verbunden sind“, zu tun haben. Sie müssen auch die Rolle der KI bei der Erstellung von Bildern offenbaren. Später wird das neuronale Netzwerk der API hinzugefügt, sodass es die dritte Teilnehmerentwickler verwenden können.

Forscher, die künstliche Intelligenz mit maschinellem Lernen (KI) verwenden, wissen oft nicht genau, wie ihre Algorithmen die Probleme lösen, mit denen sie konfrontiert sind. Auf die gleiche Weise mit Dalle-2: Wissenschaftler haben immer noch nicht verstanden, welche Prozesse in dieser „schwarzen Box“ auftreten. Nachdem sie sie jetzt geöffnet haben, sind die Forscher zu einem erstaunlichen Schluss gekommen: Um Bilder zu erstellen, schuf künstliche Intelligenz eine eigene Sprache.

Die Autoren stellten fest, dass das Dalle-2-System, das auf der Grundlage des eingeführten Textes Bilder erstellt, unter bestimmten Umständen bedeutungslose Wörter zurückgibt. Beispielsweise werden Bilder mit dem Wort "Ebene" oft eine Art von Ausbau zurückgegeben. Zuerst schien es ein Fehler zu sein, aber dann kamen Wissenschaftler zu dem Schluss, dass die Abfolge der Buchstaben in den zurückgegebenen Wörtern nicht zufällig war.
Das neuronale Netzwerk hat eine eigene Sprache geschaffen, die Wissenschaftler nicht entschlüsseln können

Um dies zu überprüfen, „haben“ Wissenschaftler einfach die neuronalen Netzwerke „gefüttert“, die von ihren zuvor Wörtern erzeugt wurden. Es stellte sich heraus, dass diese Buchstaben für das Programm wirklich wichtig sind und das gleiche wie zuvor in das System eingegebene Systeme. Dies kann bedeuten, dass das neuronale Netzwerk aus irgendeinem Grund menschliche Wörter in seine eigenen verwandelt, so dass es auf ihrer Basis einfacher ist, Bilder zu generieren.