Positionspapier des ADM zur Nutzung von Large Language Modellen (LLM)
Berlin, 22. Juni 2023
Berlin, 22. Juni 2023 – Angesichts der öffentlichen Diskussion und des steigenden Interesses seitens der ADM-Mitglieder am Thema ChatGPT haben der Vorstand und die Geschäftsführung des ADM das nachfolgende Positionspapier veröffentlicht.
Ein LLM (Large Language Model) ist eine Art Algorithmus der künstlichen Intelligenz (KI), der maschinelle Lerntechniken und große Datensätze verwendet, um Inhalte zu interpretieren, zusammenzufassen und zu generieren. Je nach genutztem LLM können diese Inhalte aus dem offenen, ungefilterten Internet und Websites, aus Forschungsartikeln, Büchern oder Beiträgen in sozialen Medien stammen. Zudem können Informationen, die in LLMs hochgeladen werden, Teil der Quellendatenbank werden und damit in den Ergebnissen mit verwertet werden. Bei ChatGPT handelt es sich um ein solches LLM. Entwickelt wurde es von dem amerikanischen Unternehmen OpenAI. Darüber hinaus gibt es eine Reihe weiterer LLMs, wie bspw. LaMDA oder BARD (entwickelt von Google) sowie Gopher (entwickelt von Deepmind).
LLMs bieten eine Vielzahl von Anwendungsmöglichkeiten, die das Potenzial haben, unsere Kommunikation und Produktivität zu verbessern. Diese Technologie ermöglicht es Nutzer*innen, Texte zu generieren, Inhalte aufzurufen und kreative Ideen zu entwickeln. Bei der Nutzung eines LLM sind verschiedene Aspekte zu berücksichtigen, um den Datenschutz, die Qualität, die Nutzung vertraulicher Informationen und die Einhaltung gesetzlicher oder vertraglicher Geheimhaltungspflichten, das Urheberrecht und die damit verbundenen Risiken angemessen zu handhaben. Darüber hinaus sollte ein verantwortungsvoller Umgang mit LLMs auch ethische Überlegungen beinhalten.
Ethik und Verantwortung: Nutzer*innen von LLMs sollten sich ihrer Verantwortung bewusst sein, wenn sie generierte Inhalte verbreiten. Es ist wichtig, Inhalte kritisch zu prüfen und sicherzustellen, dass sie ethische Standards erfüllen. Die Verbreitung von Fehlinformationen oder schädlichen Inhalten ist zu vermeiden.
Vorurteile und Diskriminierung: Ein LLM wird mit großen Mengen an Textdaten trainiert, die Vorurteile oder diskriminierende Inhalte enthalten können. Wenn diese Vorurteile nicht angemessen erkannt und behandelt werden, besteht die Gefahr, dass dies zur Verbreitung von diskriminierenden oder voreingenommenen Texten führt.
Datenschutz und DSGVO: Der Schutz personenbezogener Daten ist von größter Bedeutung und muss auch bei der Nutzung von LLMs gewährleistet sein. Unternehmen und Personen, die ein LLM nutzen, müssen ggf. unter Einbeziehung der Datenschutzbeauftragten sicherstellen, dass sie die Bestimmungen der verschiedenen Datenschutzgesetze (DSGVO, BDSG usw.) einhalten. Das bedeutet insbesondere, dass personenbezogene Daten nur in Übereinstimmung mit den gesetzlichen Bestimmungen erhoben, verarbeitet und gespeichert werden dürfen.
Urheberrecht: Das Urheberrecht ist auch im Zusammenhang mit LLM von Bedeutung. Das Generieren von Texten mit LLM kann dazu führen, dass urheberrechtlich geschützte Inhalte reproduziert werden. Es ist wichtig sicherzustellen, dass bei der Nutzung von LLMs das geistige Eigentum Dritter respektiert wird. Unternehmen sollten Richtlinien und Verfahren implementieren, um sicherzustellen, dass keine Urheberrechtsverletzungen begangen werden. Benutzer*innen sollten lizenzierte Inhalte verwenden oder sicherstellen, dass sie berechtigt sind, die generierten Inhalte zu nutzen.
Qualität: Bei der Nutzung von LLMs ist es wichtig, die Qualität der generierten Ergebnisse zu bewerten. Obwohl LLMs beeindruckende Ergebnisse liefern, können Fehler und Ungenauigkeiten auftreten. Da ein LLM auf Basis von Trainingsdaten arbeitet, besteht zudem die Möglichkeit, dass falsche Inhalte generiert werden. Dadurch kann es zu einer Verbreitung von Fehlinformationen oder ungenauen Inhalten kommen. Es ist daher wichtig, die generierten Texte kritisch auf ihre Richtigkeit zu überprüfen. Die Verantwortung in punkto Qualität liegt bei den Nutzer*innen. Diese müssen bei einer Weiterverwendung der Ergebnisse sicherstellen, dass diese korrekt sind.
Vertrauliche Informationen: LLM sollte mit Vorsicht verwendet werden, wenn es um die Generierung von oder den Zugriff auf vertrauliche(n) Informationen geht. Es ist wichtig, sicherzustellen, dass sensible Daten, insbesondere gesetzliche oder vertragliche Geheimhaltungspflichten nicht versehentlich offengelegt oder in falsche Hände geraten. Unternehmen sollten Richtlinien und Sicherheitsmaßnahmen implementieren, um den Zugriff auf vertrauliche Informationen zu kontrollieren und unbefugte Offenlegungen zu verhindern. Nutzer*innen sollten verantwortungsbewusst handeln und sicherstellen, dass sie keine vertraulichen Informationen an das LLM weitergeben. Hierzu sind die rechtlichen Regelungen der LLM-Anbieter zum Umgang mit Daten, die die Nutzer*innen in die Plattform eingeben, kritisch zu prüfen. Diese können sich u. a. auch bei verschiedenen Versionen desselben LLM deutlich unterscheiden (bspw. kostenlose vs. kostenpflichtige Version).
Transparenz: Nutzer*innen sollten bei der Veröffentlichung von Texten und Studienergebnissen darüber informieren, welches LLM oder welche KI sie zur Ausarbeitung bzw. zur Auswertung der Studie genutzt haben. Darüber hinaus ist deutlich zu machen, welche Daten für die Generierung von Inhalten verwendet wurden.
Compliance und Risikobewertung: Unternehmen sollten Risikoeinschätzungssysteme für ihre Beschäftigten entwickeln, in denen die Nutzung von LLMs für verschiedene Anwendungsgebiete evaluiert und je nach Risiko eingestuft wird. Diese sollten neben allgemeinen Aspekten zur Bewertung des Riskos auch den beabsichtigten Verwendungszweck der Ergebnisse der LLM berücksichtigen. Unternehmen sollten Schulungen sowie die oben angeratenen Implementierungen von Richtlinien und Verfahren zeitnah einführen und dokumentieren.
Die Nutzung von LLM bietet zweifellos eine Vielzahl von Vorteilen, birgt jedoch auch Risiken. Es ist wichtig, Datenschutzbestimmungen, Qualitätssicherungsmaßnahmen, den Schutz vertraulicher Informationen, das Urheberrecht und die damit verbundenen Risiken angemessen zu berücksichtigen. Durch klare Regeln in den Unternehmen sollte sichergestellt werden, dass die Technologie ausschließlich verantwortungsvoll eingesetzt wird.