Vortrag Prof. Dr. Susanne Hahn „Künstliche Intelligenz – Herausforderungen für die Verantwortungszuschreibung“

Vortrag von Frau Prof. Dr. Susanne Hahn (HHU, Philosophie) im Haus der Universität in Düsseldorf am 04.03.2020, 19-21 Uhr

Haus der Universität

Der große Saal im Haus der Universität in Düsseldorfs Innenstadt war fast bis auf den letzten Platz gefüllt. Das Publikum war gemischt von alt bis jung. Programmhefte und Zettel für Fragen lagen aus, Feedbackbögen wurden von den Mitarbeiter*innen verteilt. In einer kurzen Anmoderation stellte Frau Dr. Amrei Bahr (HHU, Philosophie) das Format der Veranstaltung vor: ca. 60 Minuten Vortrag, 5 Minuten Pause, anschließend Diskussion der Publikumsfragen.

Vortrag Prof. Dr. Susanne Hahn

Susanne Hahn ist Professorin der Philosophie an der HHU Düsseldorf mit den Schwerpunkten Normativität (Charakterisierung, Rechtfertigung von Normen), Rationalitätskonzeptionen (insbesondere Handlungsphilosophie), angewandte Philosophie und Epistemologie. Zum Forschungsschwerpunkt Künstliche Intelligenz stellte sie zu Beginn ihres Vortrags klar, dass sie im Bereich der Statistik, Mathematik, Informatik nicht zu Hause ist. Die Grundlagen der KI erklärte sie mit Scorecards und neuronalen Netzen sehr anschaulich für „Nicht-Techniker“. Beim Beispiel aus der Medizin wurden transparent in der Scorecard Risikofaktoren für Herzinfarkt per logistischer Regression errechnet. Bei diesem Beispiel war das Zustandekommen der Scores in Anbetracht der Forschungsmethoden der Medizin mit ihren randomisierten Experiment-Vergleichsgruppendesigns, den sehr niedrigen Irrtumswahrscheinlichkeiten α und den hohen Teilnehmer*innenzahlen (hier N = 500.000) nachvollziehbarer als dies z. B. im Bereich der Hochschulbildung und ihrem multifaktoriellen Bedingungsgefüge sein könnte. Die Funktionsweise der Neuronen und daraus folgend neuronalen Netzen erklärte Frau Hahn verständlich und machte deutlich, dass die Wirkweisen der Algorithmen im Detail ab dieser Phase nicht mehr nachzuvollziehen sind. Unter Rückbezug auf vorherige Vorträge aus dieser Reihe (KI – Chancen, Risiken, Herausforderungen) von u. a. Prof. Stoffel bemerkte sie kritisch, dass einige Forscher*innen KI als eine Nachbildung der Neuronen/Synapsen im Gehirn darstellten, wohingegen andere sagen, dass KI im wesentlichen Mathematik und Statistik sei.

In dem Medizinbeispiel wurde anhand der verschiedenen Risikogruppen – die jedoch menschlich/artifiziell anhand bestimmter Grenzwerte aufgestellt worden waren – gezeigt, dass mit der Untersuchung von 5 % der Personen (der drei höchsten Risikogruppen) 63 % aller an Herzinfarkt erkrankten Personen ermittelt werden können. Hieraus resultieren spannende Diskussionspunkte:

  • Kann auf solche KI-Diagnosemöglichkeiten verzichtet werden, wenn damit eine solch hohe Zahl von Fällen entdeckt werden kann?
  • Dürfen die beschränkt vorhandenen Ressourcen nur auf die Hochrisikogruppen verwendet werden, wodurch den zwar deutlich unwahrscheinlicheren, aber durchaus ebenso vorhandenen Fällen aus niedrigeren Risikogruppen nicht geholfen werden kann?

Im zweiten Teil des Vortrags ging es um Verantwortungszuschreibung oder rückwirkende Haftbarmachung, wenn etwas schiefgegangen ist. In dem Medizinbeispiel wäre dies nicht so direkt übertragbar, Frau Hahn beschrieb dies eher mit einer Kausalkette in einem Szenario, in dem auch eine Absicht, die Verletzung einer Norm sowie das Wissen über eine Verletzung anderer enthalten sind, was dann auch juristische Bereiche betrifft. Mit Beispielen ging sie dann zurück in die Zeit der Dampfmaschinen und -lokomotiven, wo Erlasse infolge des wiederholten Zerberstens von Dampfkesseln ergingen als Resultate einer Verantwortungszuschreibung. Diesen Kern der Thematik finde ich schwierig zu übertragen auf die heutige Situation der Big Data und Folgen von KI.

Als weitere Beispiele referenzierte Frau Hahn häufiger den vorherigen Vortrag der KI-Reihe von Prof. Bode über Predictive Policing, wobei auch KI-Probleme der Datenbasis anklangen, dass z. B. genaue Zeitpunkte von Einbrüchen nicht bekannt oder Abwesenheitszeiten/Urlaube nicht berücksichtigt sind, wobei dennoch Vorhersagen über Einbrüche errechnet werden. Als Beispiel für fehleranfällige Mustererkennung nannte Frau Hahn noch den Fall einer Analyse vieler Röntgenbilder, bei dem ein ‚Muster‘ in den wiederkehrenden seitlichen Aufdrucken „is mobile“ herrührten, die letztlich von mobilen Röntgengeräten stammten.

Ein interessanter Aspekt betraf noch bei KI-Unterstützung die Entscheidungsfindung zwischen den Polen Mensch und KI. Bei medizinischen Bilderkennungsverfahren z. B. haben KI-Algorithmen Vorteile bei den falsch-negativen (β-Fehler), wohingegen Ärzte/Menschen Vorteile bei den falsch-positiven (α-Fehler) haben. Daher wird bei der Entscheidungsfindung die Kooperation favorisiert, aber Frau Hahn zeigte anschaulich, dass sich hieraus eine neue Problematik entwickelt: Bis zu welchem Grad soll der Mensch dann seine Entscheidungen auf den KI-Daten aufbauen, wenn diese vielleicht kontraintuitiv zu seinen Wahrnehmungen und ggf. Empfindungen liegen? Ist die KI dann ‚nur‘ ein Unterstützungsangebot, das aber leicht übergangen werden kann? Wie sieht es im umgekehrten Fall aus, wenn z. B. ein Arzt eine Behandlungsentscheidung der KI überlässt, und sich im Schadensfall anschließend die Frage der Verantwortung stellt?

Die (handlungs-)philosophische Perspektive brachte insgesamt viele diskussionswürdige Aspekte rund um das Thema KI in ihrer Relevanz zutage. Frau Hahn betonte dabei auch die Potenziale und Notwendigkeiten der interdisziplinären Zusammenarbeit der wissenschaftlichen Disziplinen.

Der Vortrag endete mit Literaturempfehlungen und Impulsfragen für die Publikumspartizipation.

Literaturempfehlungen KI-Reihe

Ca. die Hälfte des Publikums verließ anschließend das Haus der Universität, von der anderen Hälfte nutzten etliche die 5-Minuten-Pause zum Aufschreiben ihrer Fragen. Mir gefiel das Format gut, wie die Mitarbeiter*innen die Partizipation beworben, für Rückkoppelungen zu den Fragenzetteln offen waren, die gesammelten Fragen anschließend kuratierten und gut aufeinander abgestimmt abwechselnd an Frau Hahn stellten sowie den F&A-Teil insgesamt moderierten. Die Diskussion enthielt viele interessante Aspekte. Zur Datenbasis für KI betonte Frau Hahn, dass die Datenbasis die Diversität der Bevölkerung widerspiegeln muss. Zu dem Beispiel aus dem Vortrag mit der Scorecard und den neuronalen Netzen verdeutlichte Frau Hahn, dass bei der hohen Komplexität der KI auch eine Transparenz der Algorithmen nicht gleichbedeutend mit einer Erklärbarkeit ihrer Funktionsweise ist. Auf die Frage, ob eine Ethik für Informatiker erforderlich ist, antwortete Frau Hahn dezidiert, dass es „die“ Ethik nicht gibt und es genauso eine verantwortungsbewusste Entscheidung für viele ist, durch die Möglichkeiten der KI z. B. Erkrankungen präziser zu erkennen. Wichtig ist, die Diskurse hierbei zu führen.

Auf die Hochschulbildung gewendet deutet diese Sicht auch an, dass es beim absolut wichtigen Führen der Diskurse um Datenschutz, Privacy u. a. m. dennoch an der Zeit ist, vorhandene Daten aus eLearning-Prozessen zu nutzen für Erkenntnisse zur Verbesserung der Lehre und für die Unterstützung von Studierenden aufgrund der Hinweise aus den objektivierten Daten.

Auf die Publikumsfrage, wie die interdisziplinäre Zusammenarbeit zwischen Geisteswissenschaften und Informatik auf organisatorischer Ebene befördert werden kann, zeigte sich Frau Hahn skeptisch ob der personellen Kapazitäten. Erkennbar war, dass sie ein vertieftes Verständnis über die technischen Seiten der KI / Machine Learning sowie Mathematik und Statistik für erforderlich erachtet, was sie auf Seiten vieler Geisteswissenschaftler*innen jedoch nicht als ausreichend vorhanden ansieht. Daher besteht in der Interdisziplinarität ein großes Desiderat.