Mehrheit der Bundesbürger für Algorithmen-Checks

+++ 83 Prozent befürworten unabhängige Prüfungen von Systemen mit
künstlicher Intelligenz

+++ Vor allem sicherheitskritische Anlagen und Fahrzeuge sollten
getestet werden

+++ Rechtliche Vorgaben notwendig

+++ Politischer Abend mit Justizministerin Dr. Katarina Barley

Eine große Mehrheit der Bundesbürger spricht sich dafür aus, dass
Anwendungen mit künstlicher Intelligenz (KI) von einer unabhängigen
Stelle überprüft werden. Das hat eine Forsa-Umfrage im Auftrag des
TÜV-Verbands ergeben. Demnach halten 83 Prozent der Befragten solche
„Algorithmen-Checks“ für wichtig oder sogar sehr wichtig. 11 Prozent
halten sie für nicht wichtig und 6 Prozent machen keine Angabe.
„Fahrzeuge, Geräte, Maschinen oder Online-Anwendungen mit künstlicher
Intelligenz werden Teil unseres täglichen Lebens“, sagte Dr. Joachim
Bühler, Geschäftsführer des TÜV-Verbands (VdTÜV). „Wir müssen
sicherstellen, dass automatisierte Entscheidungen nachvollziehbar
bleiben, Menschen nicht in Gefahr bringen und niemanden
benachteiligen. Dafür sind neutrale Algorithmen-Checks ein wichtiges
Instrument.“ Parallel zur rasanten Verbreitung von künstlicher
Intelligenz müssten jetzt neue Testverfahren für die Wirkung
komplexer Algorithmen entwickelt und eingeführt werden. Dafür seien
auch geeignete rechtliche Grundlagen notwendig.

Systeme mit künstlicher Intelligenz können ihre Umgebung
wahrnehmen, lernen und auf dieser Basis eigenständig Aktionen
durchführen. In der Praxis unterstützen sie Menschen dabei,
Entscheidungen zu treffen oder ihnen Aufgaben abzunehmen. Praktische
Anwendungen sind zum Beispiel komplexe medizinische Diagnosen,
digitale Sprachassistenten oder Roboter, die situativ auf ihre
Umgebung reagieren. „Die Möglichkeiten und Chancen künstlicher
Intelligenz sind unbestritten“, sagte Bühler. „Gleichzeitig stehen
wir noch am Anfang, wenn es darum geht, die Nutzung künstlicher
Intelligenz so sicher, diskriminierungsfrei und transparent wie
möglich zu machen.“ So könnten fehlerhafte KI-Systeme zum Beispiel
bestimmte Personengruppen bei der Kreditvergabe benachteiligen, die
öffentliche Meinung mit Falschnachrichten beeinflussen oder beim
automatisierten Fahren Unfälle verursachen. Zudem besteht wie bei
allen vernetzten Systemen die Gefahr von Cyberangriffen.

Algorithmen-Checks sind ein Mittel, um die Sicherheit von
künstlicher Intelligenz zu verbessern. Im Rahmen von
Algorithmen-Checks können unabhängige Prüfer beispielsweise
kontrollieren, ob ein KI-System wie vorgesehen funktioniert, ob
Fehler im Software-Code enthalten sind oder ob es den gesetzlichen
Anforderungen entspricht. Wichtig ist zudem, ob KI-Systeme mit einer
ausreichenden und ausgewogenen Datenbasis trainiert worden sind.
„Beim maschinellen Lernen als Teilgebiet der künstlichen Intelligenz
können fehlerhafte oder unausgewogene Trainingsdaten zu verzerrten
Ergebnissen führen, die zum Beispiel bestimmte Personengruppen
benachteiligen“, sagte Bühler. „Algorithmen-Checks von unabhängigen
Stellen sind insbesondere bei sicherheitskritischen Produkten wie
Fahrzeugen, Maschinen, Geräten oder auch bei bestimmten
Online-Anwendungen dringend erforderlich.“

Nach den Ergebnissen der Umfrage halten 88 Prozent der
Bundesbürger „vorgeschriebene Prüfverfahren“ bei
sicherheitskritischen Anlagen wie Kraftwerke oder Aufzüge für
„unbedingt erforderlich“, wenn sie mit Hilfe von künstlicher
Intelligenz gesteuert werden. 86 Prozent halten solche Prüfverfahren
auch bei hoch automatisierten Funktionen in Fahrzeugen für dringend
geboten. 72 Prozent sehen eine Notwendigkeit bei intelligent
gesteuerten Maschinen, zum Beispiel in der industriellen Produktion.
55 Prozent halten verpflichtende Prüfungen auch für intelligente
Hausgeräte im Smart Home für notwendig. 44 Prozent befürworten
vorgeschriebene Prüfverfahren auch bei der automatisierten Einordnung
von Personen in Versicherungstarife und 32 Prozent bei
Preisvergleichsportalen. Bühler: „Die Bundesregierung hat in ihrer
jüngst beschlossenen KI-Strategie die Potenziale von künstlicher
Intelligenz klar benannt. Jetzt kommt es darauf an, Vertrauen für die
Zukunftstechnologie in der Bevölkerung zu schaffen. Sicherheit muss
zentraler Bestandteil der KI-Strategie sein.“

Beim Politischen Abend des TÜV-Verbands diskutieren heute
VdTÜV-Präsident Dr.-Ing. Michael Fübi, Bundesjustizministerin Dr.
Katarina Barley und Prof. Christiane Wendehorst, Co-Sprecherin der
Datenethikkommission der Bundesregierung, über das Thema
„Algorithmen-Checks für Künstliche Intelligenz? Ethik, Sicherheit und
Verbraucherschutz in der digitalen Welt“. Moderator ist der
Tech-Journalist und Autor Thomas Ramge. Weitere Infos zum Event
finden Sie hier. http://ots.de/5tViPt

Hinweis zur Methodik: Grundlage der Angaben ist eine
repräsentative Umfrage des Marktforschungsinstituts Forsa im Auftrag
des TÜV-Verbands unter 1.004 Internetnutzern ab 18 Jahre. Aktuell
sind 89 Prozent der Bundesbürger ab 18 Jahre Internetnutzer (private
Nutzung in den letzten 3 Monaten).

Pressekontakt:
Maurice Shahd
Pressesprecher
Verband der TÜV e.V.
T +49 30 760095-320
maurice.shahd@vdtuev.de
www.vdtuev.de
twitter.com/vdtuev_news

Original-Content von: VdTÜV Verband der TÜV e.V., übermittelt durch news aktuell