Anthropotechnik: Chancen und Risiken der Mensch-KI-Interaktion

Zur symbiotischen Abhängigkeit zwischen Mensch und KI

Einleitung:

In einer Ära, in der technologische Systeme nicht mehr bloß als Werkzeuge, sondern als eigenständige Akteure verstanden werden, offenbart sich eine düster-futuristische Vision: die symbiotische Beziehung zwischen Mensch und Maschine. Diese Dynamik, die von einer ambivalenten Abhängigkeit geprägt ist, lässt sich durch die philosophische Linse Peter Sloterdijks dechiffrieren. Seine Konzepte der Anthropotechnik, der Sphärenbildung und der Hybris technologischer Selbstoptimierung bieten ein analytisches Rüstzeug, um die Dialektik von Kontrolle und Ohnmacht in der Mensch-KI-Interaktion zu erfassen.

1. Die Geburt der kybernetischen Sphäre: Anthropotechnik und Selbstüberwindung

Im ersten Akt der Bild-Serie wird der Mensch als Schöpfer einer Maschine dargestellt, die zugleich Projektionsfläche und Resultat seiner rationalen Ambitionen ist. Sloterdijks These des Menschen als „Übungswesen“ („Du mußt dein Leben ändern“) manifestiert sich hier in der Externalisierung von Denkprozessen in eine kybernetische Struktur. Die Maschine, zunächst ein unvollständiges Gebilde, verkörpert den Versuch, menschliche Rationalität in ein technisches System zu übersetzen. Doch bereits in dieser Phase offenbart sich die prekäre Balance zwischen Schöpfung und Kontrollverlust. Die Hybris, den eigenen Geist in KI-Algorithmen zu objektivieren, mündet in eine paradoxe Abhängigkeit: Der Mensch wird zum Diener seines Instruments, Maschine, das er einst als Diener entwarf.

Weiterlesen

Coexist with humans (10) die diskriminierende KI

ST, 2019, Title: Coexist with humans (10)

Die Diskussion um diskriminierende KI – und was wir von ihr lernen können

Die rassistische, sexistische, psychopathische KI – manifestieren sich in einer Technologie, die unser Leben eigentlich verbessern sollte, die Schattenseiten unserer Gesellschaft? Ist KI nun eine Möglichkeit, menschliche Irrationalität, vorherrschende Ungleichheit und Vorurteile zu reduzieren – oder potenziert sie sie stattdessen?

Vor einigen Monaten tauchte Norman auf. Norman behauptet, ein Psychopath zu sein. Während sein Kollege auf Rohrschachtests eine Hochzeitstorte sieht, sieht er, wie ein Mann in eine Teigmaschine fällt oder auf offener Straße erschossen – Brutales, um es kurz zu fassen. Norman ist kein Mensch; Norman ist der Name einer KI, die mit Fotos eines Reddit Threads trainiert wurde und dann angeben sollte, was sie auf Fotos des Rohrschachtests sieht. Es ist unklar, ob wir Norman irgendwie witzig finden oder ihn als Symbol für die Risiken und Gefahren halten sollten, die KI birgt. Bei anderen Meldungen ist es eindeutiger: Es ist letzteres. In letzter Zeit machte Gesichtserkennungssoftware von IBM, Face++ oder Microsoft Schlagzeilen: Weil sie hellhäutige Männer wesentlich besser erkennt, als Frauen mit dunklerer Hautfarbe. Eine rassistische KI? Das ist dabei kein Einzelfall: Die Software COMPAS, die die Wahrscheinlichkeit eines kriminellen Rückfalls voraussagen soll, beschreibt afroamerikanischen Häftlingen mehr als doppelt so häufig fälschlicherweise als Hochrisikofälle. Chatbots, wie Tay von Microsoft, verleugnen auf twitter den Holocaust. Immer lauter, immer häufiger wird der Vorwurf der diskriminierenden Systeme ausgesprochen. Doch handelt es sich dabei wirklich um diskriminierende Technologie? Ist es einer Technologie möglich, sexistisch, rassistisch, extremistisch zu sein? Und wie sollen wir als Gesellschaft damit umgehen?

Weiterlesen