Sagen Sie Ihrem Kätzchen, was Sie innerlich denken – der Black-Box-Effekt
der Technik

Sagen Sie Ihrem Kätzchen, was Sie innerlich denken – der Black-Box-Effekt

Die Tatsache, dass fortschrittliche KI-Algorithmen wie eine Black Box (1) sind, die ein Ergebnis wegwirft, ohne zu verraten, wie es zustande gekommen ist, beunruhigt einige und verärgert andere.

2015 wurde ein Forschungsteam am Mount Sinai Hospital in New York gebeten, mit dieser Methode eine umfangreiche Datenbank lokaler Patienten zu analysieren (2). Diese riesige Sammlung enthält eine Fülle von Patienteninformationen, Testergebnissen, Rezepten und mehr.

Wissenschaftler nannten das im Laufe der Arbeit entwickelte Analyseprogramm. Es trainierte auf Daten von etwa 700 Menschen. Menschen, und wenn es in neuen Registern getestet wird, hat es sich als äußerst effektiv bei der Vorhersage von Krankheiten erwiesen. Ohne die Hilfe menschlicher Experten entdeckte er Muster in Krankenhausakten, die darauf hindeuten, welcher Patient auf dem Weg zu einer Krankheit wie Leberkrebs ist. Laut Experten war die prognostische und diagnostische Effizienz des Systems viel höher als die aller anderen bekannten Verfahren.

2. Medizinisches künstliches Intelligenzsystem basierend auf Patientendatenbanken

Gleichzeitig bemerkten die Forscher, dass es auf mysteriöse Weise funktioniert. Es stellte sich zum Beispiel heraus, dass es ideal für ist Erkennen psychischer Störungenwie Schizophrenie, die für Ärzte äußerst schwierig ist. Das war überraschend, zumal niemand eine Ahnung hatte, wie das KI-System psychische Erkrankungen so gut erkennen konnte, nur basierend auf den Krankenakten des Patienten. Ja, die Spezialisten waren sehr zufrieden mit der Hilfe eines so effizienten Maschinendiagnostikers, aber sie wären viel zufriedener, wenn sie verstehen würden, wie die KI zu ihren Schlussfolgerungen kommt.

Schichten künstlicher Neuronen

Von Anfang an, also seit Bekanntwerden des Begriffs Künstliche Intelligenz, gab es zwei Sichtweisen auf KI. Der erste schlug vor, dass es am vernünftigsten wäre, Maschinen zu bauen, die nach bekannten Prinzipien und menschlicher Logik denken und ihr Innenleben für alle transparent machen. Andere glaubten, dass Intelligenz leichter entstehen würde, wenn Maschinen durch Beobachtung und wiederholtes Experimentieren lernen würden.

Letzteres bedeutet, die typische Computerprogrammierung umzukehren. Anstatt dass der Programmierer Befehle schreibt, um ein Problem zu lösen, generiert das Programm eigenen Algorithmus basierend auf Probendaten und dem gewünschten Ergebnis. Methoden des maschinellen Lernens, die sich später zu den leistungsstärksten heute bekannten KI-Systemen entwickelten, haben gerade den Weg eingeschlagen, tatsächlich die Maschine selbst programmiert.

Dieser Ansatz blieb in den 60er und 70er Jahren am Rande der KI-Systemforschung. Erst zu Beginn des vergangenen Jahrzehnts, nach einigen wegweisenden Veränderungen und Verbesserungen, "Tiefe" neuronale Netze begann eine radikale Verbesserung der Fähigkeiten der automatisierten Wahrnehmung zu demonstrieren. 

Deep Machine Learning hat Computer mit außergewöhnlichen Fähigkeiten ausgestattet, beispielsweise der Fähigkeit, gesprochene Wörter fast so genau wie ein Mensch zu erkennen. Dies ist eine zu komplexe Fähigkeit, um sie im Voraus zu programmieren. Die Maschine muss in der Lage sein, ihr eigenes „Programm“ zu erstellen Training auf riesigen Datensätzen.

Deep Learning hat auch die Computerbilderkennung verändert und die Qualität der maschinellen Übersetzung erheblich verbessert. Heute wird es verwendet, um alle möglichen wichtigen Entscheidungen in Medizin, Finanzen, Fertigung und mehr zu treffen.

Allerdings mit all dem Sie können nicht einfach in ein tiefes neuronales Netzwerk schauen, um zu sehen, wie „innen“ funktioniert. Prozesse des logischen Denkens in Netzwerken sind eingebettet in das Verhalten Tausender simulierter Neuronen, die in Dutzende oder sogar Hunderte kompliziert miteinander verbundener Schichten organisiert sind..

Jedes der Neuronen in der ersten Schicht empfängt eine Eingabe, beispielsweise die Intensität eines Pixels in einem Bild, und führt dann Berechnungen durch, bevor es die Ausgabe ausgibt. Sie werden in einem komplexen Netzwerk zu den Neuronen der nächsten Schicht übertragen – und so weiter, bis zum endgültigen Ausgangssignal. Darüber hinaus gibt es einen Prozess, der als Anpassung der von einzelnen Neuronen durchgeführten Berechnungen bekannt ist, damit das Trainingsnetzwerk das gewünschte Ergebnis liefert.

In einem oft zitierten Beispiel im Zusammenhang mit der Bilderkennung von Hunden analysieren niedrigere KI-Ebenen einfache Merkmale wie Form oder Farbe. Die höheren befassen sich mit komplexeren Themen wie Fell oder Augen. Nur die oberste Schicht bringt alles zusammen und identifiziert den gesamten Informationssatz als Hund.

Derselbe Ansatz kann auf andere Arten von Eingaben angewendet werden, die die Maschine dazu bringen, sich selbst zu lernen: Geräusche, die Wörter in Sprache bilden, Buchstaben und Wörter, die Sätze in geschriebenem Text bilden, oder ein Lenkrad zum Beispiel. Bewegungen, die zum Führen eines Fahrzeugs erforderlich sind.

Das Auto überspringt nichts.

Es wird versucht zu erklären, was genau in solchen Systemen passiert. Im Jahr 2015 modifizierten Forscher bei Google einen Deep-Learning-Bilderkennungsalgorithmus so, dass er Objekte auf Fotos nicht mehr sah, sondern sie generierte oder modifizierte. Indem sie den Algorithmus rückwärts laufen ließen, wollten sie die Merkmale entdecken, die das Programm verwendet, um beispielsweise einen Vogel oder ein Gebäude zu erkennen.

Diese Experimente, die öffentlich als Titel bekannt sind, brachten erstaunliche Darstellungen von (3) grotesken, bizarren Tieren, Landschaften und Charakteren hervor. Indem sie einige der Geheimnisse der maschinellen Wahrnehmung enthüllten, wie die Tatsache, dass bestimmte Muster wiederholt zurückgegeben und wiederholt werden, zeigten sie auch, wie tiefes maschinelles Lernen sich von der menschlichen Wahrnehmung unterscheidet – zum Beispiel in dem Sinne, dass es Artefakte erweitert und dupliziert, die wir ignorieren in unserem Wahrnehmungsprozess ohne nachzudenken. .

3. Im Projekt erstelltes Image

Übrigens Andererseits haben diese Experimente das Geheimnis unserer eigenen kognitiven Mechanismen gelüftet. Vielleicht liegt es in unserer Wahrnehmung, dass es verschiedene unverständliche Komponenten gibt, die uns dazu bringen, etwas sofort zu verstehen und zu ignorieren, während die Maschine geduldig ihre Iterationen an „unwichtigen“ Objekten wiederholt.

Weitere Tests und Studien wurden durchgeführt, um die Maschine zu „verstehen“. Jason Yosinski Er schuf ein Werkzeug, das wie eine im Gehirn steckende Sonde wirkt, jedes künstliche Neuron anvisiert und nach dem Bild sucht, das es am stärksten aktiviert. Im letzten Experiment tauchten abstrakte Bilder auf, weil das Netzwerk auf frischer Tat „gespäht“ wurde, was die im System ablaufenden Prozesse noch mysteriöser machte.

Für viele Wissenschaftler ist eine solche Studie jedoch ein Missverständnis, denn um das System zu verstehen, die Muster und Mechanismen einer höheren Ordnung komplexer Entscheidungen zu erkennen, alle rechnerischen Interaktionen in einem tiefen neuronalen Netzwerk. Es ist ein riesiges Labyrinth aus mathematischen Funktionen und Variablen. Im Moment ist es für uns unverständlich.

Computer startet nicht? Wieso den?

Warum ist es wichtig, die Entscheidungsmechanismen fortschrittlicher Systeme der künstlichen Intelligenz zu verstehen? Mathematische Modelle werden bereits verwendet, um zu bestimmen, welche Insassen auf Bewährung entlassen, wer einen Kredit erhalten und wer einen Job bekommen kann. Interessierte möchten wissen, warum diese und nicht eine andere Entscheidung getroffen wurde, was ihre Gründe und Mechanismen sind.

gab er im April 2017 im MIT Technology Review zu. Tommy Yaakola, ein MIT-Professor, der an Anwendungen für maschinelles Lernen arbeitet. -.

Es gibt sogar eine rechtliche und politische Position, dass die Fähigkeit, den Entscheidungsmechanismus von KI-Systemen zu hinterfragen und zu verstehen, ein grundlegendes Menschenrecht ist.

Seit 2018 arbeitet die EU daran, Unternehmen dazu zu verpflichten, ihren Kunden Erläuterungen zu Entscheidungen automatisierter Systeme zu geben. Es stellt sich heraus, dass dies manchmal selbst mit relativ einfachen Systemen nicht möglich ist, wie z. B. Apps und Websites, die Deep Science verwenden, um Anzeigen zu zeigen oder Songs zu empfehlen.

Die Computer, die diese Dienste ausführen, programmieren sich selbst, und sie tun dies auf eine Weise, die wir nicht verstehen können ... Selbst die Ingenieure, die diese Anwendungen erstellen, können nicht vollständig erklären, wie es funktioniert.

Kommentar hinzufügen