Diese Sammlung von Publikationen von Bundesinstitutionen, Verbänden, Räten, Researchern und Unternehmen zum Thema Künstliche Intelligenz wird laufend aktualisiert.
Du meinst, hier darf etwas nicht fehlen? Dann melde dich bei mir oder hinterlasse gerne einen Kommentar.

Regulierungen
Europäische Kommission
- Entwicklung des AI Acts: A European approach to artificial intelligence
Bundestag
Kleine Anfrage und Antwort zu ChatGPT und Datenschutz (14. Juni 2023)
- Antwort ChatGPT und Datenschutz (14. Juni 2023)
- Kleine Anfrage (15. Mai 2023)
Anhörung zum Thema „Generative Künstliche Intelligenz“ (24. Mai 2023)
- Fragenkatalog // Übersichtsseite
- Jonas Andrulis (Aleph Alpha GmbH)
- Prof. Dr. Philipp Hacker, LL.M. Yale (European University Viadrina in Frankfurt/Oder) – DE
- Prof. Dr. Natali Helberger (University of Amsterdam)
- Prof. Dr. Christian Kellermann (Hochschule für Technik und Wirtschaft Berlin)
- Catelijne Muller (ALLAI) ENG
- Prof. Dr. Doris Weßels (Fachhochschule Kiel, Hochschule für Angewandte Wissenschaften)
- Bundesbeauftragter für den Datenschutz und die Informationsfreiheit
- Bundesamt für Sicherheit in der Informationstechnik
Ausschussberatung zum Thema „ChatGPT“ (26. April 2023)
- Hintergrundpapier des Büros für Technikfolgenabschätzung beim Deutschen Bundestag
- Stellungnahme von Rasmus Rothe, KI Bundesverband e. V.
- Prof. Dr. Judith Simon, Universität Hamburg
- Prof. Dr. Doris Weßels, Fachhochschule Kiel
- Dirk Engling, Chaos Computer Club e. V.
- Tina Klüwer, KI Bundesverband e. V.
- Deutsche UNESCO-Kommission
Weitere Ausarbeitungen des Bundestags
Datenschutzaufsichtsbehörden zur Nutzung von KI-Modellen
- Nordrhein-Westfalen: KI-Entwickler stehen heute schon in der Verantwortung (02. August 2023)
- Bayern: Datenschutz bei Rechtschreibkorrektur im Webbrowser (01. Juli 2023)
- Hessen: HBDI veröffentlicht Fragenkatalog zu ChatGPT (01. Juni 2023)
- Frankreich, CNIL: Artificial intelligence: the action plan of the CNIL (16. Mai 2023)
- Baden-Württemberg: LfDI informiert sich bei OpenAI, wie ChatGPT datenschutzrechtlich funktioniert (24. April 2023)
- Rheinland-Pfalz: LFDI fragt zu ChatGPT nach (23. April 2023)
- Schleswig-Holstein: Schreiben des ULD an OpenAI L.L.C.: Anhörung im Verfahren zur Prüfung des Dienstes ChatGPT und der zugehörigen Sprachmodelle GPT bis GPT-4 (19. April 2023)
- Thüringen: ChatGPT – auf dem Prüfstand! (14. April 2023)
- Italien, GPDP: Übersichtsseite (ab 30. März 2023)
- DSK: Positionspapier der DSK zu empfohlenen technischen und organisatorischen Maßnahmen bei der Entwicklung und dem Betrieb von KI-Systemen (06. November 2019)
- DSK: Hambacher Erklärung zur Künstlichen Intelligenz (03. April 2019)
Papers
- Regulating ChatGPT and other Large Generative AI Models (PDF, Hacker, Engel, Mauer Juni 2023)
- Lost in the Middle: How Language Models Use Long Contexts (PDF, Liu, Lin, Hewitt et al. Juli 2023)
Klagen
- Klage gegen OpenAI in den USA (Juni 2023)
Sicherheit
EUROPOL
Bundesamt für Sicherheit in der Informationstechnik
- Große KI Sprachmodelle – Chancen und Risiken für Industrie und Behörden (10. Mai 2023)
- AI security concerns in a nutshell – Practical AI-Security guide (14. April 2023)
Verbände, Räte, Kirchen
Deutscher Ethikrat
Deutscher Kulturrat
- Stellungnahme – Künstliche Intelligenz und Urheberrecht (Juni 2023)
Zusammenarbeit mit Kirche, Vatikan
- Ethics in the Age of Disruptive Technologies: An Operational Roadmap (Juni 2023)
- The Call for AI Ethics (Februar 2020, Päpstliche Akademie, Microsoft, IBM)
GDD – Gesellschaft für Datenschutz und Datensicherheit e. V.
- Offener Brief an das US‐Unternehmen Open AI als Entwickler des Textroboters ChatGPT (von Stefan Brink, Rolf Schwartmann und Axel Voss, April 2023)
- ChatGPT im Unternehmen, ein Fragenkatalog für Unternehmen (April 2023)
Deutscher Journalistenverband
- Journalismus und KI (Positionspapier als PDF, April 2023)
Open Letters, Statements, Interviews
- Open letter to the representatives of the European Commission, the European Council and the European Parliament. Artificial Intelligence: Europe’s chance to rejoin the technological avant-garde (Unterzeichnet u. a. von Renault, Heineken, Airbus, Siemens, Juni 2023)
- Statement on AI Risk: AI experts and public figures express their concern about AI risk. (Unterzeichnet u. a. von Google DeepMind CEO Demis Hassabis und OpenAI CEO Sam Altman, Mai 2023)
- Pause Giant AI Experiments: An Open Letter – We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4 (März 2023).
- A policy agenda for responsible AI progress: Opportunity, Responsibility, Security (Google, Mai 2023)
- Managing the risks of generative AI. A playbook for risk executives — beginning with governance (pwc, Mai 2023)
- “If It Sounds Like Sci-Fi, It Probably Is“ – Linguistics professor Emily M. Bender separates fact from the hype surrounding Large Language Model AI.
Sonstiges
- Mit diesen Daten werden Chatbots, wie ChatGPT trainiert (eigener Artikel, Juni 2023)