Icon IT-Sicherheit
Cloud- & Cyber-Security

KI soll beherrschbar bleiben

Arne Wolff
Verfasst von: Arne Wolff
Berater für Datenschutz und IT-Sicherheit

Nicht zuletzt das große Interesse an der Veröffentlichung von ChatGPT hat künstliche Intelligenz (KI) zum Lieblingsthema der Marketingabteilungen vieler Tech-Unternehmen gemacht. Für viele User wurde KI und ihre schon jetzt beeindruckenden Fähigkeiten erstmals erfahrbar. Und klar ist auch, dass wir uns erst am Anfang einer Entwicklung befinden, die unser Leben wahrscheinlich umfassend beeinflussen wird.

Gleichzeitig werden kritische Stimmen immer lauter, die eindringlich vor unabsehbaren Gefahren durch den Einsatz von KI warnen – so meinten etwa im Mai führende Experten, darunter auch ChatGPT-Chef Sam Altman: „Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg.“

Das Thema wird kontrovers diskutiert und ist durchaus emotional aufgeladen. Dass KI naturgemäß ein komplexes Gebiet und ihre Funktionsweise schwer zu durchdringen ist, erleichtert diesen Diskurs nicht gerade. Da ist es wahrscheinlich keine schlechte Idee, auf internationaler Ebene einige Pflöcke einzuschlagen, die Orientierung bieten.

Der erste große Versuch, das zu tun, findet auf europäischer Ebene statt. Die Europäische Union will mit dem Artificial Intelligence Act (AIA) die Zukunft dieser Technologie in sichere Bahnen lenken. Im Dezember 2023 haben sich Europaparlaments und EU-Mitgliedsstaaten nach langer Debatte auf eine vorläufige Fassung geeinigt, die nur noch formell von Parlament und EU-Rat verabschiedet werden muss, bevor sie in Kraft tritt. Die EU nimmt damit weltweit eine Vorreiterstellung bei der Regulierung von KI ein.

Aber auch EU-übergreifend bemüht sich die Staatengemeinschaft um Orientierung. So haben insgesamt 18 Staaten – darunter die USA, Deutschland, Großbritannien, Italien, Tschechien, Estland, Polen und Australien – am 26. November ein zwanzigseitiges Abkommen veröffentlicht, das den Missbrauch künstlicher Intelligenz verhindern helfen soll. Zwar ist es unverbindlich, zeigt aber die Richtung an, die die internationale Gesetzgebung voraussichtlich nehmen wird.

12,5% der deutschen Unternehmen nutzen KI bereits

Die Zeit drängt allerdings auch – immerhin setzt in Deutschland laut einer Erhebung des Statistischen Bundesamtes, bei der rund 80.000 Unternehmen mit mindestens zehn Beschäftigten befragt wurden, im Schnitt etwa jedes achte KI schon jetzt ein – bei größeren Betrieben mit mehr als 250 Beschäftigten sind es mit 35 % deutlich mehr, bei kleineren mit 10 % etwas weniger. Wichtigste Einsatzfelder sind Sprach- und Texterkennung in IT-Sicherheit und Buchführung.

Was sieht das Abkommen vor?

Grundsätzlich sollen Firmen, die KI entwickeln, nutzen oder auf den Markt bringen, die Programme so gestalten, dass Nutzer und Öffentlichkeit vor Missbrauch geschützt werden. Zu diesem Zweck werden in den „Guidelines for Secure AI System Development“ Empfehlungen für vier Schlüsselbereiche des Entwicklungslebenszyklus von KI-Systemen gegeben – Design, Entwicklung, Bereitstellung sowie Betrieb und Wartung. Dazu gehören unter anderem

  • die Sensibilisierung der Mitarbeitenden für Bedrohungen und Risiken
  • die Sicherung der Lieferketten
  • die Entwicklung von Vorfallmanagementverfahren und
  • die Überwachung des Systemverhaltens.

 

Die Empfehlungen sind allerdings eher allgemeiner Natur, zum Beispiel sollen Anbieter von KI-Systemen

  • wachsam sein, um die Ausnutzung der Schwachstellen ihrer Produkte zu verhindern
  • Verantwortung für ihre Produkte übernehmen und sicherstellen, dass diese für Nutzende weiter unten in der Lieferkette sicher sind
  • Sicherheitsmaßnahmen implementieren, um Risiken für Benutzende zu mindern
  • die Nutzenden über die Risiken informieren, die sie mit der Nutzung ihrer Produkte eingehen, und sie für den sicheren Betrieb beraten.

Unter KI versteht das Abkommen dabei alle Anwendungen des maschinellen Lernens, also solche, die „Softwarekomponenten umfassen, die es Computern ermöglichen, Muster in Daten zu erkennen und ihnen Kontext zu verleihen, ohne dass die Regeln explizit von einem Menschen programmiert werden müssen; und Vorhersagen, Empfehlungen oder Entscheidungen basierend auf statistischen Überlegungen generieren.“

An der Entwicklung beteiligt waren neben dem britischen National Cyber ​​Security Centre, der US Cybersecurity and Infrastructure Security Agency und 21 weiteren internationalen Behörden – darunter die NSA und das FBI – auch Organisationen wie Amazon, IBM, Google, Microsoft und OpenAI. Das Dokument kann u.a. hier eingesehen werden: www.ncsc.gov.uk/files/Guidelines-for-secure-AI-system-development.pdf

Melden Sie sich für unseren Newsletter an.

Erhalten Sie immer die neuesten und wichtigsten Informationen zum Thema Datenschutz, Informationssicherheit und IT-Sicherheit und Compliance.