Warum Googles Alptraum-KI überall Dämonenwelpen setzt

Blogs

VonJeff Guo 8. Juli 2015 VonJeff Guo 8. Juli 2015

Vor einigen Wochen haben Google-Forscher angekündigt dass sie in den Kopf eines Programms für künstliche Intelligenz geblickt hatten.

o reilly faktor volle folge

Was sie entdeckten, war eine dämonische Höllenlandschaft. Sie haben die Bilder gesehen.

[ Bonus: Wir haben das gesamte Präsidentschaftsfeld der GOP über das DeepDream-Programm von Google geleitet. ]

Dies sind Halluzinationen, die von einem Cluster simulierter Neuronen erzeugt werden, die darauf trainiert sind, Objekte in einem Bild zu identifizieren. Die Forscher wollten die Funktionsweise des neuronalen Netzes besser verstehen und baten es daher, seine Vorstellungskraft zu nutzen. Um ein bisschen zu träumen.

Zunächst gaben sie dem Computer abstrakte Bilder zur Interpretation – wie ein Wolkenfeld. Es war ein Rorschach-Test. Die künstlichen Neuronen sahen, was sie sehen wollten, in diesem Fall waren es mutierte Tiere, die aus den Tiefen der Verdammnis geborgen wurden.

Doch das Experiment geriet erst richtig außer Kontrolle, als die Forscher den Computer baten, seine Traumvision auf ganz normale Bilder anzuwenden.

Google den Code freigegeben für diese dunkle Kunst letzte Woche und ermutigte jeden im Internet, seine eigenen Albtraumbilder oder sogar Animationen zu erstellen. Das folgende Video — basierend auf Clips von Angst und Schrecken in Las Vegas – wird dich für immer machen erschrocken von Welpen:

Wie konnte das jemand zulassen?

Die Werbegeschichte wird unter der Werbung fortgesetzt

Die künstliche Intelligenz, die hier am Werk ist, ist dieselbe Technologie, die Google verwendet, um Fotos, die Sie hochgeladen haben, automatisch mit Tags zu versehen, manchmal mit unheimlichem Erfolg. Im vergangenen Herbst demonstrierten die Forscher ein neuronales Netzwerk, das ganze Szenen untertiteln : Eine Gruppe junger Leute, die eine Runde Frisbee spielen, oder Eine Nahaufnahme einer Katze, die auf einer Couch liegt.

Diese Systeme lassen sich von der Funktionsweise der Neuronen in einem Gehirn inspirieren. Ein einzelnes Neuron ist so etwas wie ein einfacher Schalter – nichts allzu kompliziertes. Aber in einem Prozess, der nicht vollständig verstanden wird, entsteht Intelligenz, wenn eine Reihe dieser Schalter miteinander verbunden werden.

Das Geheimnis liegt darin, wie sie das Netzwerk bilden.

Die Geschichte geht unter der Werbung weiter

Das menschliche Gehirn hat zum Beispiel einige 80 Milliarden Neuronen , von denen jeder mit vielleicht verbunden ist 10.000 andere Neuronen . Die meisten Wissenschaftler glauben, dass Gedanken und Erinnerungen aus den Mustern entstehen, in denen Neuronen miteinander verbunden sind. (Das ist natürlich immer noch eine Theorie. Tatsächlich fanden UCLA-Forscher kürzlich Beweise dafür, dass Teile von Erinnerungen auch fortdauern innerhalb von Neuronen.)

Werbung

Wie ein menschliches Gehirn ist auch ein künstliches neuronales Netz nur so gut wie das, was es gelernt hat. Ein Netzwerk zur Identifizierung von Bildern könnte mit Millionen von beschrifteten Fotos gefüttert werden: Das ist ein Auto. Das ist eine Katze. Das ist ein Nashorn.

Nach dem Betrachten jedes Fotos passen die künstlichen Neuronen ihre Verbindungen aneinander an – stärken einige Verbindungen, schwächen andere – damit das System als Ganzes das nächste Auto, die nächste Katze oder das nächste Nashorn besser erkennen kann.

Die Geschichte geht unter der Werbung weiter

Wir brauchen bessere Möglichkeiten, um zu verstehen, wie neuronale Netze… funktionieren

Es wurde viel geforscht, um diese Netzwerke zu entwerfen und zu perfektionieren, wie sie lernen. Aber der Prozess hat immer noch einen Hauch von Magie. Sie müssen einem neuronalen Netzwerk nicht beibringen, dass Nashörner Hörner und Katzen Schnurrhaare haben (es ist unklar, ob dies überhaupt Konzepte sind, die es verstehen kann). Alles, was Sie tun, ist, dem Netzwerk Millionen von Bildern zu zeigen, und es wird alles von selbst herausfinden.

Manchmal begeht die Technologie schreckliche Fehler. Im Juni war es entdeckt dass der Algorithmus von Google zwei schwarze Freunde mit Gorillas verwechselte.

Google entschuldigte sich schnell. Bei der automatischen Bildbeschriftung gibt es offensichtlich noch viel zu tun, und wir prüfen, wie wir solche Fehler in Zukunft verhindern können, sagte ein Unternehmensvertreter in einer Erklärung damals.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Als vorübergehende Lösung hat das Unternehmen aufgehört, alles als Gorilla zu bezeichnen. Aber es wird länger dauern, dem künstlichen Intelligenzsystem von Google beizubringen, in Zukunft nicht denselben Fehler zu machen.

Alles, was neuronale Netze so magisch macht, macht sie auch extrem schwer zu diagnostizieren. Schauen Sie in eine dieser Routinen der künstlichen Intelligenz und alles, was Sie sehen, sind Verbindungen. Es ist für uns fast unmöglich zu interpretieren, was diese Verbindungen bedeuten – genauso wie es im Moment unmöglich ist zu verstehen, wie die Billionen oder Billiarden von Verbindungen in einem menschlichen Gehirn Bewusstsein schaffen.

Warum diese Alptraumszenen wissenschaftlich interessant sind

Ein künstliches neuronales Netz zu bitten, einen Rorschach-Test durchzuführen, ist eine Möglichkeit, zu überprüfen, wie es die Welt versteht. Die Google-Forscher nennen ihren Code DeepDream, denn genau das macht der Computer: Er zeigt uns alle Bilder, die in seinem Unterbewusstsein lauern.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Inzwischen ist das Internet wild geworden, indem es den DeepDream-Code verwendet, um Tschernobyl-Ghul-Kreaturen zu generieren:

Warum sind auf diesen Bildern so viele unpassende Welpen? Denn standardmäßig analysiert DeepDream ein neuronales Netzwerk, das von Welpen (sowie von Schnecken, Kelchen und Fischen) besessen ist.

Das Netzwerk heißt BVLC GoogLeNet . Es basiert auf einem Modell von Google-Forschern, das letztes Jahr bei einem internationalen Machine-Vision-Wettbewerb zu den Top-Performern gehörte. Forscher des Berkeley Vision and Learning Center haben ihre eigene Version erstellt und an den 1,2 Millionen aufgelisteten Bildern trainiert Hier .

Es gibt Bilder von Schmetterlingen, Meeresschnecken, Mikrofonen, Maracas und Hasen – aber keine, wie es scheint, von Menschen. Außerdem gibt es ungewöhnlich viele Hundefotos, denn die Forscher wollten dem neuronalen Netz beibringen, wie man Hunderassen unterscheidet.

Die Werbegeschichte wird unter der Werbung fortgesetzt

Stellen Sie sich vor, Ihre Eltern würden Ihnen von Kindheit an nur Bilder von Hunden zeigen. Würdest du nicht einen kleinen Hund verrückt machen? Würden Sie nicht überall Hunde sehen, sogar hinter geschlossenen Augen?

Ähnliches passiert, wenn BVLC GoogLeNet streut Welpen auf alles. Es versteht nicht, wie ein menschliches Gesicht aussieht. Aber es kennt Hunde wirklich gut.

Wechseln Sie zu einem neuronalen Netzwerk, das anderen Bildern ausgesetzt ist, und Sie werden andere Obsessionen sehen. Ein neuronales Netz, das darauf trainiert ist, Landschaften zu identifizieren, platziert Pagoden und Wälder überall:

Neuronale Netze müssen gelehrt werden, und darin ähneln sie menschlichen Kindern. Kinder mögen ihre eigenen Entscheidungen treffen, aber sie bleiben Produkte ihrer Erziehung.

Die Geschichte geht unter der Werbung weiter

Kinder werden zum Beispiel nicht rassistisch geboren, aber sie können lernen, rassistisch zu sein. Als Googles KI zwei Schwarze versehentlich als Gorillas bezeichnete, war das dann die Schuld der KI? Oder war es Googles Fehler, die KI nicht auf genügend Bilder von Schwarzen zu trainieren?

Werbung

Der Programmierer, der den Gorilla Snafu entdeckte, twitterte über einen solchen Verdacht: Ich befürchte, dass der [Algorithmus] in Ordnung ist, aber die Daten, die zum Trainieren der Ergebnisse verwendet werden, sind fehlerhaft, schrieb er.

Zunehmend werden es unsere personenbezogenen Daten sein, auf denen diese neuronalen Netze trainiert werden. Die KI-Team bei Facebook hat diese Techniken erforscht, damit das Unternehmen unser Online-Verhalten, unsere Vorlieben und Abneigungen besser verstehen kann. Aber wie wir gesehen haben, funktioniert diese Art von KI undurchsichtig. Selbst die Architekten dieser neuronalen Netze werden nicht ganz verstehen, warum diese Klumpen simulierter Neuronen die Entscheidungen treffen, die sie treffen.

Die Geschichte geht unter der Werbung weiter

Wenn ein trainiertes neuronales Netzwerk rassistisch oder sexistisch wird, gibt es keinen Schalter, der umgelegt werden kann, um es zu heilen. Aber Wissenschaftler können das Netzwerk studieren. Sie können versuchen zu verstehen, warum es so ist, indem sie es sondieren. Sie können ihm Karteikarten zeigen, um zu sehen, wie er reagiert, oder ihn bitten, ein Bild zu zeichnen.

Googles DeepDream schlägt eine alte Lösung für ein neues Problem vor. Es ist das Äquivalent, eine KI auf die Couch des Psychiaters zu legen und zu fragen: Was denkst du?