Denkende Maschinen: Wer ist verantwortlich?

 

Am 4. Juli 2016 veranstaltete die Bundeszentrale für politische Bildung einen Abend zum Thema Künstliche Intelligenz und Verantwortlichkeit.Ein Rundfunkmann fragte nach einem festen Plan zwei Vertreter der Wissenschaft und einen Vertreter der Stiftung neue Verantwortung ab und ließ zwischendurch das Publikum über Fragen abstimmen. 

Hanno Wupper

Hanno Wupper

Diese Veranstaltung blieb weiter hinter den im „Apfelbuch“ Wer isst den nächsten Apfel? aufgeworfenen Problemen und Fragen zurück und tat die in der Einladung betonte Frage nach der Verantwortlichkeit leichtfertig ab: Der Hersteller ist verantwortlich, wenn etwas schiefgeht.

Wir lernten von zwei Wissenschaftlern, wie zwei verschiedene Formen von KI-Software auf dem untersten Niveau funktionieren: die eine mit symbolischer Formelverarbeitung, die andere mit neuronalen Netzen. KI-Maschinen wenden ähnlich wie nachdenkende Mathematiker oder Verwaltungsbeamte in Formeln gefasste Regeln an und schließen daraus etwas oder sie funktionieren ähnlich wie unser Gehirn mit Neuronen und Synapsen, die man „trainieren“ muss, damit sie etwas lernen. Es gibt natürlich auch Kombinationen beider Verfahren.

So etwas baut man dann zum Beispiel in selbstfahrende Autos ein. Der Moderator, der die Sache fest im Griff hielt, und die Sprecher schienen sich einig über die folgenden Punkte:

  1. Verantwortlich ist und bleibt immer der Hersteller, eventuell der Betreiber.
  2. Diese KI-Maschinen sind alle für einen sehr begrenzten, speziellen Zweck konstruiert, darum hat man sie leicht unter Kontrolle, wenn man es richtig anpackt.
  3. Es wird noch sehr lange dauern, bis KI-Maschinen zu mehr eingesetzt werden können.
  4. Zu jeder solcher Maschine sollte es gesetzlich vorgeschrieben Verifikations-Information geben, damit Menschen oder andere Maschinen kontrollieren können, ob sie immer alles richtig machen werden.
  5. Irgendwann wird man ethische Regeln in solche Maschinen einbauen müssen, ähnlich den Asimovschen Robotergesetzen. Die kann dan zum Beispiel der Ethikrat festlegen.

Gleichzeitig aber erklärten sie, wie man diese KI-Produkte lernen lassen kann und dass Alan Turing schon um 1950 kluge, bis heute nicht widerlegte Dinge über das Lernen und die Grenzen der Denkfähigkeiten solcher KI geschrieben hat. Aber über den weiten Abstand zwischen dem, wie die regelbasierten und die „subsymbolischen“ Systeme ganz unten funktionieren, und den Auswirkungen ganz oben, wo sie in unser Leben eingreifen, wurde kaum gesprochen.

Der Leser des „Apfelbuches“ dagegen weiß:

  1. Schon heute gibt es von Menschen geschaffene IT-Systeme für die kein Mensch mehr die Verantwortung übernehmen kann und will.
  2. Koppelt man mehrere für spezielle Zwecke geschaffene Systeme zusammen, lassen sie sich eben nicht mehr beherrschen. Ein Beispiel sind „die Finanzmärkte“.
  3. KI-Maschinen erkennen jetzt schon auf Bildern von Menschen Emotionen, und sie werden in der Kriegsführung eingesetzt. Und wir wissen nicht, was derzeit alles in bekannten und in geheimen Forschungszentren entwickelt wird. Und wir wissen erst recht nicht, was sich im Internet tut, wo immer mehr „in Garagen entwickelte“ Systeme zusammengeschlossen werden. Da lässt sich auch nichts durch Gesetze beherrschen.
  4. Ja, die Informatik lehrt, dass man bei komplexen Maschinen nach solcher Verifikations-Information streben kann. Sie lehr aber auch, dass das bei lernen Maschinen nicht mehr möglich ist. Und die Praxis lehrt, dass fast nirgendwo danach gestrebt wird.
  5. Ethische Regeln lassen sich prinzipiell nicht einbauen. Lernende Maschinen müssen auch Ethik lernen, mit allen Problemen, die wir bei lernenden Menschen kennen.

Kurzum, die Bundeszentrale für politische Bildung beschränkt sich räumlich und zeitlich darauf, selbstfahrende Autos und ähnliches kurzfristig in den Griff zu bekommen. Was darum herum geschieht und was vielleicht in den nächsten Jahren geschehen wird, ist nicht im Blickfeld, offenbar auch nicht bei der Stiftung neue Verantwortung. Im Apfelbuch wird das „das Rufen im Walde“ genannt. „Es ist so sicher hier. Mir kann nichts geschehen. Es gibt keine Räuber, keine wilden Tiere.“

Die Frage ist doch: Wir lassen Maschinen lernen wie wir unsere Mitmenschen lernen lassen, und wir geben ihnen immer mehr Macht. Und wir glauben, dass wir alles im Griff behalten können und der Hersteller verantwortlich bleibt. Warum wenden wir das dann nicht auch auf unsere Mitmenschen an?

Hier liegt ein Bildungsproblem!

Dem Publikum wurde ein Musikstück vorgespielt, dann musste man entscheiden ob diese Musik „von einer KI komponiert oder von einer KI gespielt“ wurde. Diese Unsinnfrage, die nicht näher erklärt wurde, war typisch für das Niveau der Veranstaltung. Es war ganz klar, dass man zum spielen der in der Veranstaltung vorgespielten Komposition keine künstliche Intelligenz braucht. Ein einfaches MIDI-Programm reicht. Interessant wäre die Frage vielleicht bei einer klassischen Komposition mit deutlich individueller Interpretation gewesen.

Was gemeint war mit „von einer KI komponiert“, wurde erst nachher erklärt: Man hatte einem neuronalen Netz soundsoviel dem Publikum nicht verratene Stücke vorgespielt, und dann hatte es auch eines „komponiert“. Es klang übrigens wie eine Mischung von Klassik, Zwölftonmsik, Pop und Avantgarde: mit Ansätzen schlichter Form, nervigen Widerholungen, unharmonischen Melodien und computerhaften Rhythmen.

Ein informelles Gespräch bei Cocktails, von denen „einer von einer KI entworfen war“, machte viel wieder gut.


*) Die Ankündigung verschwand am nächsten Tag von der Webseite. Die Teilnehmer erhielten kein schriftliches Material zur Veranstaltung. Darum sind wir hier zurückhaltend mit dem Nennen von Namen. Wir bitten um Entschuldigung und ggf. Richtigstellung.

 Leave a Reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

(required)

(required)