Die Zerstörung von ChatGPT – Eine jungsozialistische Perspektive auf künstliche Intelligenz*

Künstliche Intelligenz. Das ist dieses Ding von dem spätestens seit dem Chatbot ChatGPT so ziemlich alle glauben, dass es unsere Gesellschaft verändern wird.

Was das genau bedeutet, ob das gut oder schlecht ist, und welche politischen Implikationen der Vormarsch von KI hat, darüber sind sich Politiker:innen, Unternehmen und andere IT-affine Menschen hingegen nicht einig. Somit ist es also höchste Zeit, eine linke Perspektive auf künstliche Intelligenz zu entwickeln. Hierzu muss aber aber erstmal definieren, was künstliche Intelligenz eigentlich ist, und vor allem was nicht. Denn es ist auch Teil einer gewinnorientierten Vermarktungsstrategie, das Buzzword KI überall drauf zuschreiben und Menschen bewusst in Unwissenheit zu lassen, was das jetzt eigentlich ist. In Anlehnung an eine Definition der EU bezeichnen wir hier mit künstlicher Intelligenz (KI) eine Software, die mithilfe von statistischen Methoden oder Methoden des maschinellen Lernens, Inhalte, Empfehlungen oder Entscheidungen hervorbringen kann. Ebendiese sind darauf ausgelegt, das Umfeld, in dem sie interagieren, entscheidend zu beeinflussen. So ist ChatGPT zum Beispiel dazu in der Lage, uns so komplexe und ausführliche Antworten auf ihm gestellte Fragen zu geben, dass wir gewillt sind, diese als wahr anzunehmen und so zu behandeln, als hätte sie uns ein Mensch erzählt.

Die Vermenschlichung, die immer wieder im Zusammenhang mit KI zu finden ist, muss aus sozialistischer Perspektive ganz klar als Vermarktungsstrategie entlarvt werden. Unternehmen bläuen uns ein, dass künstliche Intelligenzen menschlich sind, damit wir uns mit Ihnen und den daraus resultierenden Produkten wohlfühlen. Dabei ist vor allen Dingen für Nutzer:innen oft vollkommen unklar, wie ein Produkt mit KI funktioniert und welche Risiken es birgt- also eigentlich gar nicht zum Wohlfühlen. Hinzu kommt außerdem, dass es aus kapitalistischer Sicht es eine logische Konsequenz ist , dass ein Produkt mit KI oder KI generell als etwas verkauft wird, das alles kann und jede Sache schneller und effizienter macht. Und das wiederum ist in Zeiten von Lean Management und Selbstoptimierung auf jeden Fall gerne gesehen bzw. aus jungsozialistischer Perspektive scharf zu kritisieren. Auch deswegen gilt es, den Begriff KI zu entzaubern und einer Öffentlichkeit die Methoden sachlich nahe zu bringen.

Die kapitalistische Strategie, mit möglichen Einsatzgebieten von KIs zu übertreiben, geht sogar so weit, dass von Firmenchefs in offenen Briefen vor Weltuntergängen im Zusammenhang mit KIs gewarnt wird. Diese Taktik darf nicht verfangen, denn sie zielt darauf ab, dass die KIs als Hochrisiko-Technologie aufgefasst werden, die von den Techkonzernen streng behütet werden sollten. Der Weltuntergang durch KI ist weit unrealistischer als manche Firmenchefs uns glauben lassen wollen. Und falls es doch zu einem Katastrophenszenario im Zusammenhang mit KI kommen sollte, dann ist für uns Jusos ohnehin klar, dass große Techfirmen nicht diejenigen sind, die uns davor beschützen können und sollten. Es braucht gewisse Ressourcen, um eine KI einzusetzen oder selbst zu trainieren. Diese sind aber nicht so hoch, dass Regime oder Organisationen, die KIs zu Schadenszwecken einsetzen möchten, nicht selber eine KI trainieren könnten, sofern sie nicht sowieso an eine bestehende herankommen. Ein Law-and-Order-Versuch, die Verbreitung von KIs für vermeintliche Sicherheit einzuschränken, wäre also zum Scheitern verurteilt. Die Folge wäre lediglich, dass die meisten Einzelpersonen von den kapitalistischen Techkonzernen abhängig wären. Das ist ein erster Aspekt, warum KIs open-source und frei verbreitbar sein müssen. Das ermöglicht es, dass nützliche, abhängigkeitsfreie KI-Werkzeuge entstehen, die einen gesellschaftlichen Mehrwert haben und nicht der Dividende einiger Konzerne dienen.

Gemeinwohl durch Open-Source

Es ist ganz klar eine kapitalistisch getriebene Erzählung, dass KI-Entscheidungen objektiv und unabhängig vom Menschen gemacht werden. Deswegen ist es elementar für den Einsatz von KI, dass Menschen Verantwortung für KI-Entscheidungen übernehmen und verständlich und erklärbar gemacht wird, was wie entschieden wird.

Eine KI ist nur so gut wie die Daten, von denen sie gelernt hat. Und Daten von und über Menschen spiegeln in den derzeitigen Verhältnissen Ungleichheiten wider, die in unserer Gesellschaft vorherrschen. Diese Tatsache stellt ein Grundproblem für die Entwicklung und Verwendung von KI dar. Geht man darauf nicht ein, verschärft eine KI diese Ungleichheiten massiv ohne auf sie aufmerksam zu machen. Jedes kulturelle Gut und damit auch Software spiegelt Ungleichheiten wieder, die in unserer Gesellschaft derzeit existieren. Dass KI diese noch verschärft, ist für uns die größte Herausforderung in der Regulierung und hat große Priorität im Kampf für eine diskriminierungsfreie Gesellschaft.

Hierbei ist zu beachten, dass Datensätze, auf denen eine KI beruht, in Bezug auf ihre Repräsentativität immer zu hinterfragen sind, denn oftmals sind Datensätze verzerrt und die darauf begründete Technologie ist nicht fair. Korreliert beispielsweise eine bestimmte ethnische Herkunft negativ mit den Daten zum beruflichen Erfolg, könnte an dieser Stelle die KI, Menschen mit dieser ethnischen Herkunft für den Auswahlprozess zur Besetzung einer Stelle aussortieren. Der eigentliche Grund, warum Menschen mit dieser Herkunft weniger beruflichen Erfolg haben, ergibt sich jedoch aus den in der Gesellschaft bereits bestehenden Formen der Diskriminierung, welche in jedem Fall bekämpft werden müssen. Zudem gilt es zu überprüfen, ob eine KI für einen speziellen Anwendungsfall gut geeignet ist, denn oftmals kann die Software nur eine spezifische Sache gut. Im Sinne eines intersektionalen Feminismus ist eine Regulierung von KI also notwendig. Die Analyse und das Benennen von Verzerrungen durch bestehende gesellschaftliche Ungleichheiten oder durch eine mangelnde Datenlage kann als die konsequente Fortsetzung antidiskriminierender Arbeit in das Digitale verstanden werden.

Damit ist für uns folgendes klar:

  • KI kann und sollte (auf absehbare Zeit) menschliche Entscheidungsfindungen nicht ersetzen. Das bedeutet insbesondere, dass Menschen Verantwortung für die Funktionalität der KI und die Belastbarkeit ihrer Entscheidungen haben.
  • Maschinen urteilen nicht objektiver als Menschen.
  • Um sicherzustellen, dass künstliche Intelligenz überhaupt auf ihre Fairness und ihre genaue Funktion überprüft werden kann, ist es elementar, dass jede KI open-source ist. Open-source bedeutet in Bezug auf KI nicht nur, dass der Code, öffentlich gemacht wird, sondern auch, dass die Datensätze, aus denen die KI gelernt hat offen gelegt werden müssen. Nur so kann sicher gestellt werden, dass KIs dem Gemeinwohl dienen und sich ein öffentlicher kritischer Diskurs über die Fairness und die Entscheidungsgewalt der KI entwickeln kann.

Humanzentrierte Transformation in Betrieben vorantreiben

Auf dem Arbeitsmarkt ist die digitale Transformation schon seit Jahren kein Zukunftsthema mehr, sondern obliegt einer Herausforderung die jetzt stattfindet.

Während der Diskurs in der Gesellschaft über KI mit ChatGPT einen neuen Aufschwung gefunden hat, befinden sich viele Betriebe und Unternehmen bereits schon länger in der Anfangsphase der Nutzung. Doch gerade durch die momentanen Veränderungen wird nochmal verdeutlicht, dass Arbeitsprozesse sich verändern werden und dabei nahezu alle Bereiche betroffen sind. Daher wird eine Auseinandersetzung mit den Themenfelder unausweichlich sein. Während KI eine Technik mit hoher Komplexität beschreibt, steht diesem ein kaum vorhandenes Weiterbildungsangebot gegenüber und führt häufig zu fehlendem Wissen. Diese Unwissenheit wird begleitet von widersprüchlichen Prognosen und somit zu großen Unsicherheiten über Zukunftsperspektiven. Daher ist es wichtig zu verdeutlichen, dass das Wohlbefinden von Arbeitnehmer*innen immer im Vordergrund stehen muss. Denn Leitbild der Entwicklung sollte nicht die technikzentrierte Automatisierung sondern eine humanzentrierte Nutzung der KI sein. Menschliche Tätigkeiten gehört es zu Unterstützen, nicht komplett zu ersetzen.

Hierbei ist es wichtig, den politischen Diskurs mit den Arbeitnehmer*innenVertretungen vom deutschen Gewerkschaftsbund zu führen, damit geschaut werden kann, wie hier Politik unterstützen kann um optimale Bedingungen für die Arbeitnehmer*innen zu schaffen. Hierbei muss auch beachtet werden, dass die KI-Einführung einen hohen Personalaufwand bedeutet. Um diesem gerecht zu werden, werden Fachkräfte benötigt, daher braucht es eine gezielte Strategie um dem Fachkräftemangel entgegenzuwirken. Eine zielführende Unterstützung von Arbeitsprozessen mit KI ermöglicht den Betrieben und Unternehmen viele Chancen. Um somit die Standortattraktivität zu erhalten und Arbeitsplätze zu sichern, werden jetzt Regulierungen benötigt und keine Verbote die im Nachhinein erlassen werden. Damit es also zu einer Nutzung von KI-Software auf dem Arbeitsmarkt kommt, muss eine KI-Norm zur Zertifizierung der Anwendbarkeit entwickelt werden. Die Norm stellt sicher, dass die KI Qualitätsstandards erfüllt. Ein elementarer Aspekt der Norm sind heuristische Erklärungen der Methoden für die Anwendungen; solche müssen von den Entwickler*innen mitgeliefert werden. Wichtig ist, dass die Zertifizierung anwendungsspezifisch ist, denn die Regulierung richtet sich nach der Anwendung. Eine KI in einem industriellen Produktionsprozess muss anderen Regeln unterliegen als eine, die automatisiert Entscheidungen über Menschen trifft, wie im Falle von Kreditvergabe oder Auswahl- und Leistungsdiagnostik in Arbeitsverhältnissen. Außerdem wird eine Aufklärungspflicht in Bezug auf digitale Technologien benötigt, um die Transparenz zu sichern. Statistische Kriterien zum Beispiel zur Repräsentativität des Datensatzes müssen definiert werden und es benötigt Schnittstellen für unabhängige Tests.

Daher fordern wir:

  • Zum Verständnis von KI und zur Abschätzung von den Folgen der Verwendung von KI ist ein gewisser Einblick in die Methode sowie ein grundsätzliches Vertrauen in diese notwendig. Um der steigende Kompetenzanforderung entgegenzuwirken, benötigt es gezielte Weiterbildungsmöglichkeiten.
  • Stetig das Gespräch mit Gewerkschaften über KI zu führen um sicherzustellen, dass die Transformation im Sinne der Arbeitnehmer*innen passiert.
  • Transparenz, sollte KI Anwendung bei der Personalauswahl und -entwicklung finden. Arbeitnehmer*innenvertretungen müssen bei der Einführung der Systeme beteiligt sein und Kontrollbefugnisse in der Anwendung erhalten. Dabei muss sichergestellt sein, dass die Einbeziehung unabhängiger Sachverständiger möglich ist. Weiterhin muss eine solche KI regelmäßig überprüft werden und dabei muss das Ziel der Chancengleichheit gewahrt werden.
  • Dem Fachkräftemangel in unserer Gesellschaft entgegenzuwirken, denn für eine optimale Einführung von KI in Unternehmen und Betrieben, wird ein hoher Personalaufwand benötigt.
  • Die Entwicklung einer anwendungsspezifischen KI-Norm zur Zertifizierung der Anwendbarkeit der KI.

Den Wandel in der Bildung begleiten

Mit der Veröffentlichung von ChatGPT im Juni 2020, wurde eine KI bereitgestellt, auf die nicht nur jede*r zugriff hat, sondern auch einfach zu bedienen ist. Somit ist es jeder*m mit Zugriff zum Internet möglich, sich einfache Schreibaufträge aller Art ausführen zu lassen. Demzufolge ist es konsequent, dass ChatGPT insbesondere im Bildungsbereich eine beträchtliche Beliebtheit bei Schüler*innen und Studierenden erlangt hat. Das wird zur Folge haben, dass sämtliche Methoden, die darauf ausgerichtet sind, reines Faktenwissen abzufragen in Zukunft von kontextbasierte Aufgaben abgelöst werden müssen. Daher ist die Politik gefragt, die Bildungseinrichtungen bei diesem Wandel zu begleiten. Das bedeutet, dass ein Bewusstsein für KI geschaffen wird und Lehrende für das Thema sensibilisiert und Weiterbildungsangebote geschaffen werden. Reine Verbote lehnen wir ab. Denn sofern Transformer KI wie ChatGPT als Quelle angegeben werden, kann es sogar als ein Werkzeug in Schulen und Universitäten dienen. Gleichzeitig ist es auch hier wichtig zu lehren und zu zeigen, dass KI Softwares auch Schwächen aufweisen. Es ist unabdingbar, sich mit den Risiken auseinander zu setzen und zu lernen, dass es Grenzen gibt. Eine Reflektierte Nutzung von KI im Bildungsbereich wird diesen stärken, nicht schwächen.

Daher fordern wir:

  • Die Schulen und Universitäten bei dem Prozess zu begleiten, dass sich durch den Einsatz von KI der Bildungsbereich ändern wird. Dazu zählt es auch, genug Weiterbildungsangebote für Lehrende zu schaffen.
  • Kein generelles Verbot von KI in Bildungseinrichtungen.
  • Bewusstsein für die Schwächen von KI-Softwaren zu schaffen und Grenzen aufzuzeigen.

* ChatGPT war bei der Erstellung des Titels nicht hilfreich.