Le réseau neuronal a créé sa propre langue, que les scientifiques ne peuvent pas déchiffrer

Le réseau neuronal a créé sa propre langue, que les scientifiques ne peuvent pas déchiffrer

Initialement, les mots semblaient à un scientifique du Tarabarshchina, mais il s'est avéré que le réseau neuronal les a compris

L'outil Dall -e est un réseau neuronal «formé» par l'Openai Research Company pour générer des images et des arts réalistes à partir du texte en langage naturel. Plus tôt, les développeurs ont constaté que Dall-E est capable de combiner plausiblement des concepts non apparentés et de créer des versions anthropomorphisées des animaux et des objets.

Yannis Daras (Giannis Daras), candidat des sciences dans le domaine de la connaissance informatique, a publié cette semaine sur Twitter, des exemples de ce qu'il a appelé "sa propre langue de l'IA".

"Apoploe Vesrreitais" - signifie des oiseaux ", a écrit Daras sur Twitter. «Contarra Ccetnxniams Luryca Tannionons» - signifie coléoptères ou ravageurs.

Dall -E 2 fonctionne en conjonction avec Clip - un système de vision par ordinateur, qu'Openai a annoncé en 2021.

Dall-E crée des illustrations, des photos et des rendus basés sur une description simple. Par exemple, elle peut représenter un «chat dans une cravate papillon» ou «un daikon dans un pack, promener un chien». Le clip définit les objets et les classe, en fonction d'une description simple.

Par exemple, c'est ce que le résultat créé par le réseau neuronal sur la demande de "Rolls de panda cool sur un patin à Santa Monica"

Jusqu'à présent, l'accès à la nouvelle version est ouvert uniquement à un groupe d'utilisateurs via une liste d'attente. Il est interdit aux utilisateurs de charger ou de créer des images qui peuvent «nuire», y compris tout ce qui concerne la haine, la nudité, les gestes obscènes ou les «complots ou événements associés aux événements géopolitiques actuels». Ils doivent également révéler le rôle de l'IA dans la création d'images. Plus tard, le réseau neuronal sera ajouté à l'API afin que les développeurs de troisième partie puissent l'utiliser.

Les chercheurs utilisant l'intelligence artificielle avec l'apprentissage automatique (IA) ne savent souvent pas exactement comment leurs algorithmes résolvent les problèmes auxquels ils sont confrontés. De la même manière avec Dalle-2: les scientifiques ne comprenaient toujours pas quels processus se produisent à l'intérieur de cette «boîte noire». Après les avoir ouverts maintenant, les chercheurs sont arrivés à une conclusion incroyable: pour construire des images, l'intelligence artificielle a créé sa propre langue.

Les auteurs ont remarqué que le système Dalle-2, qui crée des images sur la base du texte introduit, renverra des mots dénués de sens dans certaines circonstances. Par exemple, les images avec le mot «plan» sont souvent renvoyées une sorte de victime. Au début, il semblait que c'était un bug, mais les scientifiques sont arrivés à la conclusion que la séquence de lettres dans les mots retournés n'était pas accidentelle.
Le réseau neuronal a créé sa propre langue, que les scientifiques ne peuvent pas déchiffrer

Pour vérifier cela, les scientifiques ont simplement «nourri» les réseaux de neurones générés par ses mots précédemment. Il s'est avéré que ces ensembles de lettres sont vraiment importants pour le programme, et ils signifient les mêmes que ceux précédemment entrés dans le système. Cela peut signifier que pour une raison quelconque, le réseau neuronal transforme les mots humains en lui-même, de sorte que sur leur base, il est plus facile de générer des images.