FrAIheit in Gefahr? – Künstliche Intelligenz, unsere Fehlbarkeit, ihre Makel

Künstliche Intelligenz ist auf dem Vormarsch und wird unser Leben verändern. Doch wie? Und was bedeutet das für unsere Freiheit?

Der Golem, Talos, Frankensteins Monster, Skynet, HAL 9000, GladOS. Ein paar Referenzen aus verschiedenen Epochen der Menschheitsgeschichte, die zeigen, dass künstliche Intelligenz unsere Fantasie nicht erst seit gestern anregt. Die Frage, was den Menschen und seine Form der Intelligenz einzigartig macht, und die Faszination, etwas zu erschaffen, das dieser Intelligenz nahe kommt oder sie sogar übertrifft, begleitet die Menschheit seit Jahrtausenden. Warum wir uns diese Frage stellen, ist offensichtlich: Solange wir gewiss sein können, dass unsere Intelligenz einzigartig ist, können wir uns selbst versichern, dass unsere Hegemonie auf dieser Welt und im von uns erforschten Universum gültig ist. Wir mögen knapp 8 Milliarden Menschen mit unterschiedlichen Persönlichkeiten, Meinungen und Überzeugungen sein, dennoch teilen wir menschliche Denkprozesse. Diese Prozesse können Auslöser für Kriege oder verständnisloses Kopfschütteln sein, aber im Grunde sind sie menschlich und – Offenheit und Ehrlichkeit des Denkenden vorausgesetzt – potentiell ergründbar. Was geschieht aber, wenn wir die Denkprozesse einer Intelligenz nicht mehr nachvollziehen können? Und wie viel Verantwortung über unsere menschliche Gesellschaft darf oder soll so einer Intelligenz anvertraut werden?

Bevor wir uns mit derlei Fragen beschäftigen, bedarf es einer kurzen Definition des Terminus “künstliche Intelligenz”. Leider wird diese Definition dadurch erschwert, dass der Begriff Eingang in das alltägliche Marketing-Vokabular gefunden hat und mittlerweile für alles von der fortschrittlichsten Anwendung von Neural Networks bis hin zu simplen Automatisierungsprozessen verwendet wird. Grundsätzlich versteht man unter KI oder AI nicht mehr oder weniger als die maschinelle Simulation menschlicher Intelligenz. Diese basiert auf Sinneswahrnehmungen, Lernprozessen und Prozessen zur Adaption an die Umgebung. Dazu zählen auch logisches Denken und Entscheidungsfindung.1

Wir finden schon heute zahlreiche Anwendungsgebiete, in denen künstliche Intelligenzen Prozesse vereinfachen, beschleunigen oder effizienter als menschlich möglich gestalten, oder einfach nur “praktisch” sind: Dank Sprachassistenten können wir in unserem Smart Home eine Playlist auf Spotify genießen, die basierend auf unseren Vorlieben erstellt wurde, nachdem wir in unserem Tesla mit einem beträchtlichen Maß an Autonomie nach Hause kutschiert wurden. Unseren Urlaub buchen wir assistiert von einem Chatbot, und um bis zur Abreise unserem Traum vom Beachbody etwas näher zu kommen, schlägt uns unsere Fitnessapp maßgeschneiderte Workouts und einen Ernährungsplan basierend auf den Daten unserer Smartwatch vor. Die Selfies, die wir dort aufnehmen, werden optimiert, sodass es nicht zu schlimm ist, wenn man sich dem Trainingsregiment doch nicht zur Gänze unterworfen hat. Life 4.0 ist bequem! Und dabei waren das nur einige endnutzerbezogene Beispiele. KIs sind auch in der Lage, den Verkehr zu steuern, Wartungsarbeiten in der Industrie vorherzusagen, den Verbrauch von Pestiziden und Düngemitteln in der Landwirtschaft ebenso wie den Energieverbrauch von Städten zu minimieren und werden schon heute bei der Früherkennung und Überwachung der Verbreitung von Krankheiten eingesetzt.2

So verschieden die Anwendungsgebiete – alle heutigen KIs verbindet, dass sie sogenannte “schwache” KIs sind, das heißt sie sind nur auf einen Anwendungsbereich trainiert. Dieses Training wird durch eine gewaltige Menge an Daten ermöglicht. Je besser die zur Verfügung stehenden Daten, umso besser die KI. Hier zeichnet sich ein erstes Risiko im Umgang mit KIs ab: Die Verlockung, so viele Daten wie möglich zu sammeln, ist groß. Die besten KIs entstehen auf Basis der besten Datenbanken – eine potenzielle Gefahr für die Privatsphäre der Nutzer. Ein langfristiger Konkurrenzkampf unter KIs scheint unvermeidlich, da diese Situation für Datenmonopole prädestiniert scheint.3 Interessanterweise ist es ein anderer KI-Prozess, nämlich die Erzeugung synthetischer Datensätze zu Trainingszwecken von KIs, der diese Entwicklung auf lange Sicht verhindern könnte.4

Ein weiteres Problem im Umgang mit KIs und der dazugehörigen Verarbeitung von Daten ist das unter ITlern bekannte Phänomen “Garbage in, garbage out”. Wenn die Qualität der Daten, mit der eine KI trainiert wird, nicht hochwertig ist, kann auch die KI nur suboptimale Ergebnisse liefern. Qualität bedeutet in diesem Zusammenhang unter anderem auch Freiheit von menschlichen Biases. Ein Beispiel, bei dem eine KI in ihrer Funktion versagte, da nicht genügend Randbedingungen festgelegt wurden, um einen Bias auszuschließen, ist Amazons Recruitment-KI.5 Da die Tech-Industrie nach wie vor eine Männerdomäne ist und Amazon auf die Daten früherer Einstellungen zurückgriff, um einer KI beizubringen, ideale Kandidaten für die Firma auszuwählen, ergab es sich, dass die KI lernte, Frauen im Auswahlprozess systematisch zu benachteiligen. Amazon stellte das Projekt ein. Es dient aber als warnendes Beispiel: Um “gerechte” KIs zu entwickeln, müssen viel mehr Aspekte berücksichtigt werden, als uns selbst bei simplen Anwendungen bewusst ist. KIs erkennen Muster, die uns selbst kaum auffallen (z.B. in der unterschiedlichen Verwendung von Sprache zwischen Männern und Frauen), und entwickeln ihre Entscheidungsprozesse basierend darauf – das ist ihre Stärke und Schwäche zugleich. Ein hohes Maß an Selbstreflektion im Umgang mit ihnen ist deshalb unabdingar und setzt die Bereitschaft voraus, sich auf einen permanenten Lernprozess einzulassen.

KIs kennen keine Moral. Sie hinterfragen ihre Entscheidungen nicht. Sie kennen keine Schuld. Das führt dazu, dass die Entwickler und Nutzer von KIs sich damit auseinandersetzen müssen, nach welchen Grundsätzen eine KI handeln soll und wer wofür wieviel Verantwortung übernehmen muss. Amazon musste natürlich sein Einstellungsverfahren beenden, da es diskriminierend war. Aber wie sieht es bei echten moralischen Dilemmata aus, mit denen KIs früher oder später konfrontiert sein werden? Selbstfahrende Autos werden beispielsweise – selbst wenn dank ihnen zahlreiche Unfälle vermieden werden können – auf das Trolley-Problem stoßen: Ist ein Unfall mit Personenschaden unvermeidbar, muss das System eine Entscheidung darüber treffen, wessen Schutz Priorität genießt. Es braucht eine Rangfolge aus Schutz der Insassen, Schutz von Personengruppen, Schutz von Erwachsenen oder Kindern, Schutz von anderen in Fahrzeugen befindlichen Personen. Einem Autofahrer wird dieses moralische Dilemma bei einem Unfall nicht aufgebürdet: Die menschliche Unfähigkeit, in einer solchen Situation eine überlegte Entscheidung zu treffen, schützt ihn davor. Haftungsrechtlich stehen im Hinblick auf die autonomen Entscheidungen künstlicher Intelligenzen jedenfalls interessante Entscheidungen bevor, da das Verantwortungsverhältnis geklärt werden muss.

Aber auch das Justizsystem selbst und die Strafverfolgung wollen vermehrt auf die Fähigkeiten von KIs setzen. Racial Profiling ist in vielen Ländern verboten. Doch schon heute drängt sich der Verdacht auf, dass Predictive-Policing-Algorithmen und Systeme wie das Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) – ein System, das die Wahrscheinlichkeit der Rückfälligkeit von Straftätern beurteilt und auf dessen Basis Richter in den USA schon heute die Härte von Strafen anpassen – aufgrund ihrer Datenbasis immanent rassistisch sind.678 Es ist eine gesellschaftliche und politische Debatte darüber notwendig, inwieweit wir auf derartige Hilfsmittel zurückgreifen wollen. Befürworter sehen das große Potenzial, mögliche oder gar wahrscheinliche Opfer vor Verbrechen zu schützen und denen gegenüber besondere Milde zeigen zu können, denen eine gute Prognose attestiert wird. Auf der anderen Seite droht eine Entindividualisierung der Rechtsprechung und die Zersetzung eines der wichtigsten Grundsätze unseres Rechtsverständnisses: In dubio pro reo.

Eine letzte Thematik, die im Zusammenhang mit KI tangiert werden muss, ist die Zukunft unserer Arbeitswelt, die wir uns mit künstlichen Intelligenzen teilen werden. Aufgrund der rasanten Entwicklung im Bereich künstlicher Intelligenz fällt es schwer konkrete Prognosen zu treffen. Insofern ergibt es Sinn sich an Mark Knickrehms Artikel in der Harvard Business Review9 zu halten und sich genauer mit den 5 Denkschulen auseinanderzusetzen, in die er unsere heutigen Technikpropheten einteilt:

  • Dystopians – sehen einen sozialdarwinistischen Überlebenskampf auf uns zukommen. Die zunehmende Automatisierung immer komplexerer Prozesse durch KIs führt zu Massenarbeitslosigkeit und die soziale Schere klafft immer weiter auseinander.
  • Utopians – erhoffen sich eine Zukunft, in der dank starker KIs (also solchen, die in ihren Fähigkeiten von menschlichen nicht zu unterscheiden sind) echte menschliche Arbeit nahezu überflüssig wird und die Menschen den Dingen nachgehen können, für die sie sich begeistern.
  • Technology Optimists – sind sich sicher, dass noch sehr viel Potenzial der Technologie ungenutzt ist und – sobald es realisiert wird – die Menschheit einen Sprung in Lebensstandard und Produktivität erleben wird. Um zu verhindern, dass dieser Sprung zu sozialen Härten führt und damit möglichst niemand zurückgelassen wird, sehen sie Investitionen in lebenslange Bildung und Training als notwendig an.
  • Productivity Sceptics – haben Zweifel an einem großen Rückenwind für die Wirtschaft und vermuten, dass Überalterung, Klimawandel und starke Einkommensungleichheit die entwickelten Wirtschaften derart ausbremsen werden, dass auch KIs ihnen kein starkes Wachstum bescheren können.
  • Optimistic Realists – bauen dank der Zusammenarbeit zwischen menschlicher und künstlicher Intelligenz auf große Produktivitätssteigerungen in einigen Sektoren, durch die auch neue Jobs geschaffen werden. Jedoch fordern sie eine intensive Auseinandersetzung mit der Thematik seitens der Gesellschaft und Politik, um zu vermeiden, dass gerade die Mittelschicht der Arbeitskraft im Fortschrittsprozess zu sehr in Mitleidenschaft gezogen wird.

Egal welcher Denkschule man sich selbst zuordnet, es lohnt sich, dem Thema schon heute mehr Beachtung zu schenken – vor allem mehr als man es momentan insbesondere seitens der Politik tut. KIs werden noch viele fantastische Dinge für uns tun und ermöglichen. Von der Früherkennung von Krankheiten und der Prävention von Suiziden über die akkurate Vorhersage von Naturkatastrophen (kombiniert mit besser organisierter Katastrophenhilfe) bis hin zur Erforschung des Alls – die Anwendungsgebiete und das Potenzial der Technologie scheint grenzenlos.

Aber obwohl ich persönlich quasi die personifizierte Technologiebegeisterung bin, möchte ich mit einem Plädoyer enden: “Errare humanum est, sed in errore perseverare diabolicum”, so schrieb es einst Seneca. Irren ist menschlich, dem Fehler verhaftet zu bleiben aber teuflisch. Die Menschlichkeit des Irrens, unsere Fehlbarkeit, hat einen Wert. Sie bildet die Grundlage für zweierlei Tugenden, die künstlichen Intelligenzen fehlen. Zum einen gewährt sie uns Nachsicht gegenüber unseren Mitmenschen, da wir um ihre Fehlbarkeit wissen und bei besonderen Umständen in der Lage sind, auch mal “ein Auge zuzudrücken”. Zum anderen regt das Wissen um unsere Fehlbarkeit ein konstantes Hinterfragen unserer Entscheidungen an, was wiederum neue Lernprozesse und Einsichten ermöglicht. Wir sind keiner algorithmischen Absolutheit verpflichtet und nur deshalb müssen wir – anders als unsere künstlichen Intelligenzen – unseren Fehlern nicht verhaftet bleiben. Der Zweifel macht uns einzigartig und bildet das Fundament unserer Freiheit. Ubi dubium, ibi libertas.

  1. https://towardsdatascience.com/ai-and-cognitive-computing-fc701b4fbae7[]
  2. https://www.europarl.europa.eu/news/de/headlines/society/20200827STO85804/was-ist-kunstliche-intelligenz-und-wie-wird-sie-genutzt[]
  3. https://towardsdatascience.com/ai-powered-monopolies-and-the-new-world-order-1c56cfc76e7d[]
  4. https://medium.com/profiles-in-entrepreneurship/no-ai-does-not-lead-to-monopoly-markets-7368ac4f536b[]
  5. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G[]
  6. []
  7. https://www.theatlantic.com/ideas/archive/2019/06/should-we-be-afraid-of-ai-in-the-criminal-justice-system/592084/" class="ek-link">https://www.technologyreview.com/2020/07/17/1005396/predictive-policing-algorithms-racist-dismantled-machine-learning-bias-criminal-justice/[]
  8. https://www.theatlantic.com/ideas/archive/2019/06/should-we-be-afraid-of-ai-in-the-criminal-justice-system/592084/[]
  9. https://hbr.org/2018/01/how-will-ai-change-work-here-are-5-schools-of-thought[]

keepitliberal.de - die Woche!

Meldet euch für unseren Newsletter an, um keinen Artikel zu verpassen. Jeden Samstag gibt es ein Update mit den neuesten Artikeln, Insights und Hinweisen aus der Redaktion - direkt in euer E-Mail-Postfach. Der perfekte Wochenüberblick in drei Minuten Lesezeit.

Abonniere unseren Newsletter und schließe dich 306 anderen Abonnenten an.
Redakteur | Co-Founder