Nimmt die KI uns die Arbeitsplätze weg?

23.04.2023, Lesezeit 20 Min.
1
Foto: thinkhubstudio / shutterstock.com

Künstliche Intelligenz erzeugt überzeugend Bilder, schreiben Aufsätze und programmieren. Was bedeutet künstliche Intelligenz für uns Lohnabhängige?

Wir haben es mit künstlicher Intelligenz oder, wie es im Englischen heißt, Artificial Intelligence (AI) zu tun, wenn wir unser Smartphone mit unserem Fingerabdruck oder unserem Gesicht entsperren. Auch wenn wir geblitzt werden, hat eine KI das Nummernschild automatisch erkannt. Das sind klassische Anwendungsgebiete für künstliche Intelligenz aus dem Bereich der Bilderkennung. Wer mit Sprachassistenten wie Siri, Alexa oder dem Google Assistent spricht, spricht mit einer KI. Diese Sprachassistenten sind bereits sehr beeindruckend. Unterhält man sich aber mit aktuellen Chat-Bots wie ChatGPT, kann es einem schon wie Zauberei vorkommen – als handle es sich um eine allwissende Intelligenz. Doch spätestens damit ist es an der Zeit, ChatGPT und künstliche Intelligenz im Allgemeinen zu entzaubern.

Herkömmliche Computerprogramme kennen nur „Ja“ oder „Nein“, ein „Vielleicht“ gibt es dementsprechend nicht. Sie handeln weder eigenständig noch denken sie mit. Ein:e Softwareentwickler:in denkt sich einen Algorithmus aus, eine Reihe von Abarbeitungsanweisungen also, die dem Computer genau sagen, was er zu tun hat. Nur der Algorithmus und die Eingabedaten bestimmen, was der Computer tut und was am Ende herauskommt. Der gleiche Algorithmus mit den gleichen Daten wird immer zum gleichen Ergebnis führen. Man spricht hier auch von scharfer oder regelbasierter Logik. Auf diese Weise ist in den letzten 80 Jahren bereits beeindruckende Software entstanden, die relativ komplexe Aufgaben erfüllt. Diese Software enthält nicht selten mehrere Millionen Zeilen Programmcode, die von einem oder mehreren Teams von Softwareentwickler:innen über Jahre hinweg programmiert wurden.

Sollen jedoch noch komplexere Aufgaben gelöst werden, wie beispielsweise autonomes Fahren sowie das Erkennen von Bildern, Gesichtern, gesprochenen oder geschriebenen Wörtern, so ist hierfür scharfe, regelbasierte Logik nicht mehr ausreichend. Dies hat mehrere Gründe. Zum einen müssen diese Regeln überhaupt erst einmal bekannt sein. Darüber hinaus ist man unweigerlich mit einer Reihe von Fragen konfrontiert: Wie funktioniert Sprache? Wie erkennen wir Objekte? Für viele der zu lösenden Aufgaben sind der innere Zusammenhang und die Funktionsweise nicht bekannt. Sollte es perspektivisch gelingen, eben jene Probleme in Regeln zu erfassen, so werden diese äußerst komplex und umfangreich sein. Ihre Umsetzung in Computerprogramme wiederum wird daher einen hohen Aufwand erfordern und eine extreme Fehleranfälligkeit aufweisen.

Maschinelles Lernen 

Künstliche Intelligenz basiert im Gegensatz dazu auf der unscharfen Logik (engl.: Fuzzy Logic). Sie kennt kein „Ja“ oder „Nein“, sondern nur ein „Vielleicht“, genauer ein „Vielleicht“ mit Wahrscheinlichkeiten. Durch maschinelles Lernen (engl.: Machine Learning) entwickelt die KI diese unscharfe, wahrscheinlichkeitsbasierte Logik weitgehend automatisiert aus einer Reihe von Eingabedaten. Für ein Eingabedatum soll ein bestimmtes Ausgabedatum generiert werden. Während des Lern- oder Trainingsprozesses wird das Ergebnis bewertet. Je nachdem, ob der gewünschte Output erzeugt wurde oder nicht, werden die internen Daten der KI angepasst. Dies geschieht so lange, bis das richtige Ergebnis in ausreichender Anzahl erzeugt wurde.

Es gibt verschiedene Methoden des maschinellen Lernens. Am bekanntesten dürften künstliche neuronale Netze sein. Dabei wird die Funktionsweise des Gehirns als neuronales Netz abstrahiert und in einen Computer als Soft- oder Hardware implementiert. Der große Vorteil des maschinellen Lernens ist, dass man, egal welche Methode angewandt wird, die Gesetzmäßigkeiten dessen, was nachgebildet werden soll, nicht kennen muss. KI lernt aus Beispielen. So wie ein Kind sprechen lernt, ohne etwas über Linguistik zu wissen, lernt der Computer anhand einer enormen Anzahl an Beispielen, gesprochene Sprache zu „verstehen“ und zu synthetisieren.

KI hat nichts mit Magie zu tun. Sie ist letztlich reine Mathematik, wofür in den meisten Fällen sogar die vier Grundrechenarten ausreichen. Das Geniale liegt in der grundsätzlichen Methodik, die es dem Computer ermöglicht, alles zu lernen, was ein Mensch erlernen kann – vorausgesetzt, die Hypothese vom neuronalen Netz als Grundlage des menschlichen Lernens stimmt.

Scharfe Logik funktioniert theoretisch fehlerfrei. Aus praktischer Erfahrung wissen wir jedoch, dass Software nicht fehlerfrei ist. Das liegt daran, dass die Algorithmen nicht immer korrekt sind oder nicht fehlerfrei implementiert wurden. KI hingegen macht, ebenso wie Menschen, Fehler. Schon das Grundprinzip erlaubt keine Fehlerfreiheit, da die inneren Gesetzmäßigkeiten weder bekannt noch abgebildet sind. Es wird lediglich anhand von Beispielen ein gewünschtes Verhalten in statistischen Werten abgebildet. Wenn alles gut geht, ist das Ergebnis in den meisten Fällen richtig. Hierin liegt eines der Risiken, die später noch ausführlicher betrachtet werden sollen.

Neben der reinen Mathematik, die durch eine Software, also ein Computerprogramm, abgebildet wird, müssen Informatiker:innen und Wissenschaftler:innen des jeweiligen Fachgebietes im Vorfeld festlegen, welche Merkmale der Beispieldaten für das gewünschte Verhalten relevant sind und wie diese Merkmale transformiert werden müssen, damit sie als Eingabedaten für die zu trainierende KI geeignet sind. Dies wird als Merkmalsextraktion bezeichnet.

Die Fortsetzung bekannter Widersprüche

Anschließend braucht man Trainingsdaten – sehr viele Trainingsdaten. Nicht umsonst spricht man hier von Big Data. ChatGPT wird von OpenAI entwickelt, die längst nicht mehr „offen“ sind, wie es der Name suggeriert. Woher die Trainingsdaten im Einzelnen stammen, ist nur teilweise bekannt. Sie wurden zum Beispiel aus GitHub entnommen, einem Internetportal zur Verwaltung von Quellcode für Open Source Projekte. Es dürfte sich dabei um eine riesige Fundgrube für Programmiercode handeln. Generell kann wohl davon ausgegangen werden, dass verschiedene Internetquellen angezapft wurden. Denkbar ist aber auch, dass das Nutzer:innenverhalten in Apps und verschiedenen Internetanwendungen für Big Data genutzt wird. Auf diese Weise haben wir alle die Trainingsdaten erzeugt.

Damit die KI lernen kann, muss die von ihr erzeugte Ausgabe noch irgendwie überprüft und als „richtig“ oder „falsch“ klassifiziert werden, insofern das Lernen durch Feedback erfolgt. Diese Tätigkeit wird von Tausenden Clickworkern erledigt, die sich nicht selten in sogenannten „Billiglohnländern“ befinden. Moderne KI ist also wie jede Technologie und jedes Produkt im Kapitalismus zunächst einmal das Ergebnis menschlicher Arbeit und deren Ausbeutung.

Friedrich Engels schreibt in „Die Entwicklung des Sozialismus von der Utopie zur Wissenschaft„:

In diesem Widerspruch, der der neuen Produktionsweise ihren kapitalistischen Charakter verleiht, liegt die ganze Kollision der Gegenwart bereits im Keim. Je mehr die neue Produktionsweise […] zur Herrschaft kam und damit die Einzelproduktion bis auf unbedeutende Reste verdrängte, desto greller mußte auch an den Tag treten die Unverträglichkeit von gesellschaftlicher Produktion und kapitalistischer Aneignung.

Der von Engels benannte Widerspruch zwischen gesellschaftlicher Produktion und kapitalistischer Aneignung erhält mit KI wie ChatGPT eine neue zugespitzte Dimension. Die gesellschaftliche Produktion beschränkt sich nicht nur auf die bezahlte Arbeit für OpenAI und andere Unternehmen, sondern auch auf die unbezahlte Arbeit aller Menschen, die unwissentlich zur Produktion der Trainingsdaten beigetragen haben. Jene gesellschaftliche Arbeit wird privatkapitalistisch angeeignet.

Auch wenn die KI konzeptbedingt genauso Fehler macht wie wir Menschen, ermüdet sie jedoch nicht, womit sich zusätzliche Fehler durch Monotonie, Stress, Störungen oder Ablenkungen vermeiden lassen. Außerdem kann sie in Sekundenschnelle auf das im Internet gespeicherte Wissen der Menschheit zugreifen und verfügt damit quantitativ über mehr „Fachwissen“, als es für einen einzelnen Menschen möglich wäre.

Ein:e Grafiker:in braucht Stunden oder Tage, um eine Grafik zu erstellen – eine entsprechende KI schafft dies in wenigen Sekunden. Es dauert Stunden, einen Aufsatz, einen Bericht oder eine Analyse zu schreiben – eine entsprechende KI schafft es in Sekunden. Ein:e Programmierer:in braucht ein paar Minuten oder Stunden, um eine Funktion zu programmieren – eine entsprechende KI dagegen nur wenige Sekunden.

Das bietet große Chancen, allerdings nur für „Arbeitgeber:innen“, Unternehmer:innen und Kapitalist:innen. Wir Lohnabhängigen werden weiterhin acht Stunden am Tag, 40 Stunden in der Woche arbeiten müssen. In dieser Zeit müssen wir genauso viel, genauso hart arbeiten wie bisher. Wir werden vermehrt andere Arbeit machen müssen, also Arbeit, die die KI (noch) nicht machen kann. Durch den Einsatz von KI werden wir produktiver. Der Gewinn, den wir erarbeiten, wird steigen. Unsere „Arbeitgeber:innen“ könnten zumindest einen Teil des zusätzlichen Profits an uns weitergeben, etwa durch höhere Löhne, mehr Urlaub, eine kürzere Wochenarbeitszeit oder gesamtgesellschaftlich durch ein früheres Renteneintrittsalter sowie eine höhere Rente. Die Entscheidung darüber liegt jedoch ausschließlich in den Händen der Kapitalist:innen – wir werden dazu nicht befragt.

In OpenAI und die Entwicklung von ChatGPT hat Microsoft bereits eine Milliarde Dollar gesteckt und will weitere Milliarden investieren. Diese Investitionen müssen sich irgendwann auszahlen. Früher oder später wird zumindest die kommerzielle Nutzung von ChatGPT Geld kosten, wobei der Markt den Preis regelt. Da KI die Produktivität steigert, dürfte die Nachfrage groß sein. Schließlich wird sich die Nutzungsgebühr auf einen Preis einpendeln, der dem Wert entspricht, den die Anwendung der KI den Produkten und Dienstleistungen verleiht, die sie hervorbringt. Mittel- bis langfristig werden die Gewinne der Unternehmer:innen wieder in etwa auf das Niveau zurückkehren, auf dem sie vor dem Einsatz von KI lagen. Selbst wenn die Nutzungskosten nicht so hoch werden, dass sie die Produktivitätssteigerung oder die eingesparten Personalkosten aufzehren, tritt ein anderer Effekt ein. Die Produktionskosten sinken durch geringere Personalkosten oder geringeren Zeitaufwand. Die eingesparten Kosten versuchen die Kapitalist:innen wiederum als Extraprofit einzustreichen. Sofort drängen andere auf den Markt, die das Produkt billiger anbieten, weil es auch günstiger herzustellen ist. In Konsequenz fallen die Preise, womit der Extraprofit verschwindet. Am Ende stehen die Unternehmer:innen wieder dort, wo sie angefangen haben. Lediglich der Aufwand, der notwendig ist, um den gleichen Gewinn zu erzielen, ist größer geworden. Hieran wird deutlich, dass letztlich nur die menschliche Arbeitskraft den Profit erwirtschaften kann.

Für die Kapitalist:innen ist das letztlich kein Vorteil. Aber sie sind gezwungen, den Trends zu folgen, weil die anderen es auch tun. Wer nicht mitzieht, verliert mit der Zeit seine Konkurrenzfähigkeit und geht bankrott. Ob das der Grund ist, weshalb einige von ihnen, darunter sogar die reichsten und mächtigsten wie Elon Musk, in einem offenen Brief fordern, die KI-Entwicklung vorläufig einzustellen?

Risiken und Nebenwirkungen: KI im Kapitalismus

Neben der berechtigten Sorgen um Lohneinbußen und dem möglichen Verlust des Arbeitsplatzes, birgt KI eine Reihe weiterer Risiken.

In „Die deutsche Ideologie“ gehen Marx und Engels unter anderem auf den Zusammenhang von materieller und geistiger Macht, die die herrschende Klasse besitzt, ein:

Die Gedanken der herrschenden Klasse sind in jeder Epoche die herrschenden Gedanken, d.h. die Klasse, welche die herrschende materielle Macht der Gesellschaft ist, ist zugleich ihre herrschende geistige Macht.

Übertragen auf KI lässt sich konstatieren, dass diese auf Basis der realen Daten des Internets lernt, die die vorherrschende Meinung und damit die Meinung der herrschenden Klasse widerspiegeln. Folglich entspricht auch der Output, sei es als Grafik oder als Text, dieser herrschenden Meinung: KI erscheint sexistisch, rassistisch und antikommunistisch, leugnet die Existenz von Klassen und ist durchdrungen von bürgerlicher Propaganda. Die Nutzer:innen der KI sind dieser Propaganda unterschwellig ausgesetzt, während fortschrittliche Ideen in der Masse an Informationen kaum eine Chance haben. Der:die Betreiber:in einer KI wiederum kann technisch auch direkt in deren Antworten eingreifen und damit Zensur, Propaganda und Manipulation selbst befördern.

Zudem erfolgt der Einsatz von KI bei ChatGPT und vielen anderen KI-basierten Systemen nicht lokal, sondern über Cloud-Dienste. Dadurch gelangen sensible und zum Teil personenbezogene Daten zu den Betreiber:innen und werden nicht selten zu Trainingszwecken gespeichert. Einmal vorhandene Daten können aber auch von den Betreiber:innen missbraucht oder von Cyberangreifer:innen erbeutet werden. Daraus resultiert ein hohes Datenschutzrisiko.

Ein weiteres Risiko ergibt sich aus der bereits erwähnten Tatsache, dass KI nicht fehlerfrei ist. Es gibt kein klares „Ja“ oder „Nein“, sondern nur eine Wahrscheinlichkeit, die nie bei 100 Prozent liegt. Daraus folgt zwangsläufig, dass KI Fehler macht, was von den Hersteller:innen so in Kauf genommen wird. An dieser Stelle ist entscheidend, welche Konsequenzen diese Fehler letztendlich haben: Wenn man einen Strafzettel erhält, weil die KI das Kennzeichen falsch erkannt hat, ist das ärgerlich. Wenn man aber die Wohnung, den Job oder den Kredit nicht bekommt, weil die KI eine Fehleinschätzung vorgenommen hat, kann das zu einem richtig großen Problem werden. Und tödlich enden kann es, wenn die KI beim autonomen Fahren Fehler macht – und das tut sie bereits.

Das vielfach geteiltes Horrorszenario besteht in der Vorstellung, dass künstliche Intelligenz eines Tages dem Menschen überlegen ist, ihn für überflüssig hält und bis zur Ausrottung bekämpft oder zumindest versklavt. Bereits heute kann es mitunter so wirken, als würde sich KI verselbstständigen. In einem Experiment ließen Facebook-Forscher:innen zwei KIs namens Bob und Alice miteinander kommunizieren. Anfangs sprachen die beiden KIs in einem für Menschen verständlichen Englisch, dann aber entwickelten sie die Sprache weiter: Sie verwendeten weiterhin englische Wörter, stellten diese aber in einen neuen Kontext. Dabei wurden Wörter und Satzteile mehrfach verwendet; die Expert:innen gehen davon aus, dass die KIs durch die Wiederholungen Mengenangaben machen wollten.

Zu hinterfragen ist außerdem, was Chatbots oder Sprachassistenten mit der menschlichen Psyche machen. Sie können beispielsweise zu emotionaler Vereinsamung führen, wenn die Maschine zum:zur Freund:in wird. Menschen unterhalten sich mit ihr wie mit einer Person, verbringen mehr Zeit mit ihr als mit realen Kontakten und gehen in einigen Fällen sogar eine Liebesbeziehung ein. Parallel dazu gibt es sogar Bestrebungen, Chatbots zur Kostensenkung im Gesundheitswesen einzusetzen. Sie sollen anstelle eines:einer Psychotherapeut:in mit psychisch kranken Menschen sprechen. Wissenschaftliche Untersuchungen zeigen aber, dass sie den:die Therapeut:in eben gerade nicht ersetzen können. Ein weiteres Problem besteht darin, dass KI zur Generierung von Fälschungen missbraucht wird. Man spricht hier von „Deepfake“. Dabei handelt es sich um eine Technologie, die es ermöglicht, Gesichter auf Fotos und Videos digital auszutauschen, was oft als „Face Swap“ bezeichnet wird. Deepfakes können eingesetzt werden, um gezielt Desinformation zu verbreiten, Personen zu diskreditieren oder sogar politische Entscheidungen zu beeinflussen.

Die dargestellten Aspekte stellen sicherlich nur eine Auswahl all jener Risiken dar, die mit KI einhergehen. Wie bereits erwähnt, fordern einige prominente Vertreter:innen von Technologieunternehmen, also Personen, die sich mit der Materie auskennen, in einem offenen Brief einen sofortigen Stopp der Entwicklung von künstlicher Intelligenz mit Fähigkeiten, die über GPT-4 hinausgehen:

KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz können tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen, wie umfangreiche Forschungsarbeiten zeigen und es von führenden KI-Laboratorien anerkannt wird. […] Deshalb fordern wir alle KI-Laboratorien auf, das Training von KI-Systemen, die leistungsfähiger sind als GPT-4, sofort für mindestens sechs Monate zu unterbrechen.

Da es sich bei den Erstunterzeichner:innen um CEOs, Aktionär:innen und Kapitalist:innen handelt, kann die Motivation natürlich auch ganz einfach darin liegen, dass sie die sechs Monate benötigen, um den Rückstand gegenüber der Konkurrenz durch OpenAI und Microsoft aufzuholen.

Weiterhin heißt es in dem offenen Brief: „Solche Entscheidungen dürfen nicht an nicht gewählte Technikführer:inen delegiert werden.“ Das ist richtig! Nur ist die bürgerliche Demokratie in diesem Fall keine Alternative, denn die Gewählten sind nicht die Vertreter:innen des Volkes oder gar der Menschheit, sondern der wirtschaftlichen Machthaber:innen, also genau derer, die sie einschränken sollen. Die Unterzeichner:innen erkennen weiterhin, dass ihre Forderung keine generelle Pause in der KI-Entwicklung bedeutet, „sondern lediglich eine Abkehr vom gefährlichen Wettlauf zu immer größeren, unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten.“ Es ist durchaus interessant, dass die Kapitalist:innen dies selbst feststellen. Nur können sie nichts dagegen tun, denn die Grundgesetze des Kapitalismus, wie beispielsweise das Gesetz der Akkumulation, zwingen sie zum Wettbewerb: Wenn sie es nicht tun, gehen sie irgendwann bankrott. Und sollte der Staat tatsächlich regulativ eingreifen, so wird es dennoch Verstöße geben. Denn das Kapital kann nicht anders, es muss sich zwangsweise vermehren, sodass jede Möglichkeit genutzt wird, auch wenn sie illegal ist.

Die Entwicklung der künstlichen Intelligenz ist nicht aufzuhalten. Sie ist eine zwangsläufige Entwicklung der Produktivkräfte. Die Frage ist vor allem, von wem KI entwickelt wird, wer sie besitzt, wer sie nutzt, wem die Unternehmen gehören, in denen sie entwickelt und genutzt wird, wer dort das Sagen hat, wer davon profitiert. Dabei gerät KI in einen Widerspruch zu den kapitalistischen Produktionsverhältnissen. Wenn dieser Widerspruch nicht durch die Negation der Produktionsverhältnisse in einer sozialen Revolution gelöst wird, schlagen die Produktivkräfte in Destruktivkräfte um: KI würde dann immer mehr zum Nachteil der Lohnabhängigen und der gesamten Menschheit, einschließlich der Kapitalisten selbst – dystopischen Befürchtungen, die  Wirklichkeit werden könnten:

Wie in den weithin befürworteten Asilomar-KI-Grundsätzen dargelegt, könnte fortgeschrittene KI einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde darstellen und sollte mit entsprechender Sorgfalt und entsprechenden Ressourcen geplant und verwaltet werden. Leider findet eine solche Planung und Verwaltung nicht statt, obwohl sich die KI-Laboratorien in den letzten Monaten in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe befanden, die niemand – nicht einmal ihre Erfinder:innen – verstehen, vorhersagen oder zuverlässig kontrollieren kann.

Sorgfältige Planung und Verwaltung mit Blick auf die entsprechenden Ressourcen – ja, das wäre der richtige Weg. Aber die Marktwirtschaft und mit ihr die kapitalistische Konkurrenz lassen das, wie bereits dargelegt, nicht zu. Wenn man eine gesellschaftliche Kontrolle der KI will, und das ist zwingend notwendig, dann müssen auch die Unternehmen, die KI entwickeln und die KI nutzen, gesellschaftlich kontrolliert werden. Dies gelingt jedoch nur, wenn die Unternehmen gesellschaftliches Eigentum sind, also denjenigen gehören, die darin produzieren und die Produkte nutzen.

Zum Ende des offenen Briefs heißt es:

Die Menschheit kann mit KI eine blühende Zukunft genießen. Nachdem es uns gelungen ist, leistungsfähige KI-Systeme zu schaffen, können wir nun einen ‚KI-Sommer‘ genießen, in dem wir die Früchte ernten, diese Systeme zum klaren Nutzen aller entwickeln und der Gesellschaft die Chance geben, sich anzupassen.

All das ist durchaus möglich, wird aber im Kapitalismus nicht funktionieren. Hier herrschen Profitstreben, Konkurrenz, antagonistische Klassenverhältnisse sowie imperialistische Machtinteressen gegenüber anderen Ländern. Nur wenn jene Faktoren nicht mehr existieren und die Macht gleich verteilt ist, bestehen keine fundamentalen Interessengegensätze mehr. Und nur dann kann ein gleichberechtigter gesellschaftlicher Diskurs geführt werden, der in einen gesellschaftlichen Konsens mündet und den Interessen der Menschheit entspricht.

Ein anderes Szenario: KI im Sozialismus

In einer sozialistischen Gesellschaft kann die KI zum Nutzen aller eingesetzt werden; sie kann die Entwicklung von Wissenschaft und Technik vorantreiben und dabei helfen, Lösungen für die Probleme der Menschheit zu finden.

Paul Kov schreibt in seinem Artikel Was machen, wenn K.I. deinen Job bedroht? auf Klasse gegen Klasse:

Der Kapitalismus schafft es, den Fortschritt zu unserer direkten Konkurrenz zu erklären. In jeder logisch funktionierenden Gesellschaft wäre ein Roboter, der technische Arbeitsabläufe automatisiert, ein Segen für uns. Es könnte genauso gut produziert werden, aber es bräuchte weniger menschliche Zeit dafür. Doch im Kapitalismus heißt das, dass die Hälfte deiner Kolleg:innen zum Arbeitsamt geschickt wird, anstatt dass ihr alle weniger schuften müsst. Durch deinen Boss mutieren Self-Checkouts und Sortierroboter auf einmal zum Klassenfeind.

Wenn durch die Nutzung des wissenschaftlich-technischen Fortschritts die Arbeitszeit, die der:die Inhaber:in eines Unternehmens benötigt, verkürzt oder sogar überflüssig wird, freut er:sie sich, weil er:sie mehr Freizeit hat, mehr Zeit für Tätigkeiten, die ihm:ihr Spaß machen, ohne Angst, dass ihm:ihr das Geld ausgeht. Der Betrieb läuft weiter und erwirtschaftet Gewinn. Als Eigentümer:in kann er:sie darüber verfügen. Wenn wir alle Eigentümer:innen sind, geht es uns genauso. Die Wochenarbeitszeit kann verkürzt, der Urlaub verlängert und das Rentenalter herabgesetzt werden, ohne einen Lohn- oder Rentenverlust befürchten zu müssen.

Für uns Menschen bleibt die Arbeit, die künstliche Intelligenz nicht leisten kann: die intelligente und kreative Arbeit. KI nimmt uns lediglich die lästige Arbeit ab, während wir uns entfalten und unsere Intelligenz sowie Kreativität fördern können.

Dieser Artikel wurde nicht von einer KI geschrieben, aber ich habe eine KI verwendet. Die englischen Texte hat die KI von DeepL übersetzt. Ich habe im kreativen Dialog mit der ChatGPT-basierten KI von Bing recherchiert – und es hat Spaß gemacht. Ich konnte mich voll auf den Inhalt konzentrieren, da mir die KI die nicht-kreative Arbeit abnahm. Sogar das Titelbild habe ich zunächst vom Bing-Chat-Bot erstellen lassen, und es war so gut, dass ich es verwenden wollte. Aber dann habe ich ein Bild gefunden, das von einem menschlichen Künstler erstellt wurde und mir noch besser gefiel.

Ebenso wie eine zerstörerische KI keine ferne Dystopie ist, muss auch der Sozialismus keine ferne Utopie sein. Der Unterschied ist, dass die zerstörerische KI von selbst kommt, wenn wir sie nicht verhindern. Der Sozialismus dagegen muss erkämpft werden. Die Kapitalist:innen können die Probleme nicht lösen; das können nur wir, die Lohnabhängigen, die Mehrheit der Menschen, die die Unternehmen am Laufen halten und die Werte schaffen. Der Kampf für den Sozialismus hat schon begonnen. Dafür organisieren wir uns als klassenkämpferische Arbeiter:innen bei KGK Workers und bauen mit der marxistischen Hochschulgruppe Waffen der Kritik eine revolutionäre Jugend an der Seite der Arbeiter:innenklasse auf.

Denn nein, nicht die KI nimmt uns die Arbeitsplätze weg, sondern die Kapitalist:innen, wenn wir uns nicht wehren.

 

Mehr zum Thema