Wer hat die KI erfunden? Warum kollektive Verantwortung entscheidend ist.
19. 01. 2026
Warum erscheinen uns diese Fragen relevant?
Künstliche Intelligenz ist nicht wie ein isoliertes Genieprojekt zu bewerten, sondern als ein Ergebnis gemeinsamer Überlegungen und Entwicklungen über viele Jahrzehnte hinweg. Für zivilgesellschaftliche, gemeinwohlorientierte Daten-Anwendungen ist diese Perspektive zentral, weil sie Transparenz, Teilhabe und demokratische Regeln in den Mittelpunkt stellt. Wie wir in der Zivilgesellschaft Künstliche Intelligenz verstehen, bestimmt, wie wir sie verantwortungsvoll nutzen, mitbestimmen und auch kontrollieren können.
Lest dazu auch unseren Blog-Beitrag: „KI-Mythen entzaubert: Die Entwicklung einer Technologie im Wandel.“
Doch die Realität sieht oft anders aus: wenige Anbietende von Anwendungen aus den USA und China sind bekannt und profitieren vom (zum Teil selbst initiierten) Hype um KI. Häufig sind es die gleichen, deren Quellen nicht öffentlich sind und die die Daten ihrer Nutzer*innen zu ihrem Vorteil nutzen.
Die Frage, „Wer hat die KI erfunden?“, lässt sich natürlich nicht allein mit einer einzigen Person beantworten. Künstliche Intelligenz entstand durch das Zusammenspiel vieler Beiträge im 20. Jahrhundert aus Mathematik, Wissenschaft und Informatik. Sie war und ist ein kollektives Forschen, Handeln und Weiterentwickeln von theoretischen Grundlagen bis zu datengetriebenen Lernverfahren und Datenprojekten. Das bedeutet aus Sicht des Civic Data Lab folglich auch, dass der Fokus von KI auf einer kollektiven Verantwortung liegt und liegen muss und nicht auf der Berühmtheit einer*s einzelnen Innovator*in.
Die Vorläufer und Pioniere einer Gemeinschaft
Gleichwohl legten formale Modelle und Berechenbarkeit in der ersten Hälfte des 20. Jahrhunderts das Fundament für computergestütztes Denken. 1936/ 1937 wurde von Alan Turing die Turingmaschine eingeführt, um den Begriff der Berechenbarkeit formal zu fassen und zu definieren, was Maschinen „denken“ können (,wenn man es so vermenschlicht bezeichnen möchte) . Ohne diese theoretischen Bausteine wäre spätere KI rückblickend wahrscheinlich nicht möglich gewesen. Diese Grundlagen sind auch heute noch relevant. Sie zeigen auf, dass KI eben nicht aus dem Nichts entsteht, sondern aus der systematischen Erweiterung von Logik und Formalismen.
1955 prägte John McCarthy den Begriff „Künstliche Intelligenz“ und trieb symbolische KI voran. Seine Arbeit an Sprachen wie LISP und die Dartmouth Conference markierten Wegmarken in den frühen KI-Jahrzehnten. Die ersten praktischen Anwendungen wurden durch die nicht selten als „Väter der Künstlichen Intelligenz“ bezeichneten Forscher Marvin Minsky, Allen Newell, Herbert A. Simon, Warren McCulloch und Walter Pitts entwickelt. Darunter waren auch schon Grundlegungen für neuronale Netze, Expertensysteme und die Idee, dass Maschinen Lern- und Problemlösefähigkeiten entwickeln können. Sie trugen dazu bei, dass KI als interdisziplinäres Feld verstanden wurde. Frank Rosenblatt beschrieb 1958 das Perzeptron, eine frühe Form neuronaler Netze, die als Vorläufer moderner Deep-Learning-Ansätze gilt. Rosenblatt zeigte, dass Maschinen durch Beispieldaten lernen können.
Bei der bekannten Aufzählung der „Väter“ bleiben jedoch oft die Frau ungesehen, deren Beiträge auch schon für die frühen Entwicklungen von KI entscheidend waren. Margaret Masterman war eine frühe Pioniering für Machine Translation und Computerlingustik. Auch im Bereich sprachlicher Anwendungen forschte und entwickelte Kathleen Booth (damals Britten) mit ihrem Team. Sie veröffentlichte 1955 eine sehr frühe Maschinenübersetzung. An der Entwicklung von Programmiersprachen und anderen Methoden und Technologien wirkten Frauen wie Grace Hoppner, Betty Holperton, Ida Rhodes und Jean Bartik mit.
Von der Symbolik zum Lernen
In den 1950er bis 1980er Jahren entstanden regelbasierte KI-Systeme, die auf Logik und Wissensrepräsentation basierten. Ab den 2000er Jahren brachten datengetriebene Ansätze und Deep Learning Durchbrüche. Heute verbinden sich symbolische Ansätze mit lernenden Netzen, was Fragen nach Transparenz, Interpretierbarkeit und Governance stärker in den Fokus rückt, weil das ungesteuerte Lernen nicht nachvollziehbar ist. Diese hybride Entwicklung versucht, die Stärken beider Welten zu vereinen, einerseits die formale Struktur symbolischer Systeme und andererseits die Anpassungsfähigkeit neuronaler Netze. Forscher*innen sehen darin einen Weg, komplexes Wissen effizienter zu modellieren und besser zu erklären. Gleichzeitig stellt sich die Herausforderung, ethische und sicherheitstechnische Fragen in solchen Systemen konsistent umzusetzen.
Was bedeutet diese Entwicklung konkret? Frühe KI-Systeme funktionierten nach festen Regeln – wie ein digitales Handbuch für Sozialleistungen. Heutige lernende Systeme können dagegen aus Tausenden Beratungsfällen Muster erkennen. Beide Ansätze haben Vor- und Nachteile: Regelbasierte Systeme sind nachvollziehbar, aber starr. Lernende Systeme sind flexibel, aber schwerer zu kontrollieren. Für Beratungsangebote im sozialen Bereich ist diese Unterscheidung zentral.
Zentrale Fragen heute: Ethik und Zivilgesellschaft
Die ethische Debatte um KI dreht sich um Datennutzung, faire Arbeitsbedingungen, Transparenz, ökologische Kosten und vor allem die Teilhabe marginalisierter Gruppen. Diese Themen sind für zivilgesellschaftliche Akteur*innen besonders relevant, weil die Antworten auf solche Fragen beeinflussen, wer Zugang zu Technologien hat und wer von KI-Entscheidungen betroffen ist. Eine demokratische KI-Beratung setzt aus Sicht des Civic Data Lab daher auf Verlässlichkeit, Transparenz und faire Governance über den gesamten Nutzungszyklus. Eine aktuelle Perspektive, wie sie beispielsweise im Heise-Artikel* vom 15. Dezember 2025 diskutiert wird, betont die Rolle der Zivilgesellschaft und die ethischen Dilemmata rund um demokratische KI und Solidargemeinschaften. Für die Zivilgesellschaft ist es daher von großer Relevanz, dass Projekte offen dokumentiert sind, partizipativ gestaltet werden und robuste Mechanismen für Rechenschaftspflicht bestehen. Diese Perspektiven helfen, KI-Anwendungen verantwortungsvoll zu gestalten und demokratische Prinzipien zu stärken. Vertieft diskutiert hat das eine große Gruppe aus der Zivilgesellschaft in den letzten Jahren im Projekt „Code of Conduct – Demokratische KI“, organisiert von D64. Wir haben euch die Whitepaper zu Gerechtigkeit und Freiheit in früheren Blogartikeln näher gebracht.
Folgen aus Sicht des Civic Data Lab
Aus einem historischen Kontext heraus ist und bleibt KI das Produkt vieler Akteur*innen. Keine einzelne Person oder Firma macht Künstliche Intelligenz aus. Auch die aktuelle Konzentration auf Sprachgenerierung wird über kurz oder lang von der nächsten Innovation abgelöst werden und wir werden vermutlich nicht weiter „Chatbot“ denken, wenn wir „KI“ hören. Die (Weiter-)entwicklung von Künstlicher Intelligenz ist eine kollektive Leistung aus Wissenschaft, Mathematik, Informatik, Philosophie, Kunst und auch Praxis. Aus der zivilgesellschaftlichen Perspektive müssen daher Solidarität, Transparenz, Teilhabe und ethische Standards im Vordergrund stehen. Gerade gemeinwohlorientierte Anwendungen sollten diese Werte konkret in Projekten verankern und mitdenken.
Aus der Frage „Wer hat die KI erfunden?“ ergibt sich für gemeinwohlorientiert agierende Akteur*innen der Zivilgesellschaft heute und in Zukunft die Frage „Wie wird KI weiterhin erfunden?“ und wie können wir uns darin einbringen?
Ein aktuelles Gesetzgebungsverfahren der EU bietet ein Beispiel: Das sogenannte „Digitale Omnibus-Paket“ der EU, das am 19. November 2025 vorgestellt wurde, um den digitalen Binnenmarkt effizienter zu gestalten, ist ein Vorschlag der Europäischen Kommission zur Vereinfachung digitaler Vorschriften. Es zielt darauf ab, bürokratische Hürden für Unternehmen und Organisationen abzubauen und Innovationen in Bereichen wie KI, Daten und Cybersicherheit zu fördern, um den digitalen Binnenmarkt effizienter zu gestalten. Dabei soll es um KI-Reformen gehen wie die Anpassungen der KI-Verordnung, z. B. flexible Fristen für Hochrisiko-Systeme, zentrale Aufsicht beim AI Office und Erleichterungen für kleine und mittlere Unternehmen. Da es dabei auch um sogenannte Hochrisiko-KI-Systeme geht, haben die neuen Regularien entscheidende Auswirkungen auf Organisationen und Menschen der Zivilgesellschaft.
Konkret bedeutet das: Ein KI-Beratungstool für Sozialleistungen könnte als Hochrisiko-System eingestuft werden, weil es über Zugang zu existenziellen Leistungen mitentscheidet. Organisationen müssen dann nachweisen, dass ihr System fair, transparent und kontrollierbar ist – von der Datenerhebung bis zur Ausgabe von Empfehlungen. Diese Anforderungen sind berechtigt, aber sie stellen kleine Organisationen vor Herausforderungen. Das Omnibus-Paket soll hier Erleichterungen schaffen, ohne Schutzstandards aufzuweichen.
Die entscheidende Frage ist nicht, wer KI erfunden hat, sondern wer künftig mitbestimmt, wie sie weiterentwickelt wird. Und ob dabei Gemeinwohl oder Gewinnmaximierung im Vordergrund steht.
Praxisleitfaden für gemeinwohlorientierte Zivilgesellschaft
- Dokumentiere Datenherkunft, Modellannahmen und Entscheidungen so offen wie möglich für mehr Transparenz. Veröffentliche Readme-Dateien, Datenkarten und Modellkarten, damit Nicht-Experten verstehen, wie KI funktioniert.
- Beziehe marginalisierte Gruppen frühzeitig in Datendesign, Datenerhebung und Evaluationsprozesse für mehr Teilhabe mit ein. Nutze partizipative Methoden, um Akzeptanz und Relevanz sicherzustellen.
- Prüfe auf Verzerrungen in Datensätzen und Modellen. Beispiel: Wenn Beratungsdaten hauptsächlich von deutschen Muttersprachlern stammen, kann das System Menschen mit Migrationsgeschichte benachteiligen. Fördere Diversität in Datenquellen und überprüfe Modelle regelmäßig auf solche Verzerrungen.
- Achte auf faire Bedingungen in der gesamten KI-Kette, von Datenannotation bis zu Cloud-Ressourcen. Berücksichtige gesundheitliche und soziale Auswirkungen.
- Etabliere klare Verantwortlichkeiten, Beschwerdewege und Korrekturmechanismen. Setze Ethik-by-Design in Projekten um.
- Berücksichtige ökologische Kosten von Datenverarbeitung und Modelltraining, strebe nach energieeffizienten Ansätzen.
- Biete Schulungen an, damit Nutzer*innen verstehen, wie KI funktioniert, welche Grenzen bestehen und wo Fehlerquellen liegen.
Quellen:
Alan Touring/ Touringmaschine
https://de.wikipedia.org/wiki/Turingmaschine
John McCarthy
https://www.britannica.com/biography/John-McCarthy
Marvin Minsky
https://news.mit.edu/2016/marvin-minsky-obituary-0125
Frank Rosenblatt
https://en.wikipedia.org/wiki/Frank_Rosenblatt
Margret Masterman
https://en.wikipedia.org/wiki/Margaret_Masterman
Kathleen Booth
https://en.wikipedia.org/wiki/Kathleen_Booth
*Heise Online (2025, 15. Dezember). Demokratische KI, Governance und Solidargemeinschaften: Ethik, Transparenz und Teilhabe in der Praxis.
https://www.heise.de/news/Solidaritaet-in-der-KI-Aera-Das-ethische-Dilemma-der-Zivilgesellschaft-11114641.html
Governance
https://www.haufe-akademie.de/blog/glossar/governance/
Digital-Omnibuspaket der EU, Pressemitteilung vom 19. November 2025
https://germany.representation.ec.europa.eu/news/vereinfachung-der-digitalgesetzgebung-kommission-legt-paket-vor-2025-11-19_de
Definition Hochrisiko-KI
https://www.bundesnetzagentur.de/DE/Fachthemen/Digitales/KI/9_Hochrisiko/artikel.html
Anja Stoiser
Kommunikation anja.stoiser@caritas.de Kontakt in HumHub