Künstliche Intelligenz

+++ Aktuelle Studie zur Sicherheit von Künstlicher Intelligenz +++ Forderungen nach klarer Kennzeichnung und unabhängigen Prüfungen +++ Hoffnung auf Fortschritte in Medizin, Forschung und Bildung +++ TÜV-Verband fordert gesetzliche Leitlinien für den KI-Einsatz in sicherheitskritischen Bereichen
KI
©Kaboompics via Pixabay

Künstliche Intelligenz ist eine der wichtigsten Schlüsseltechnologien unserer Zeit. Ihr Potenzial ist gewaltig. Intelligente Algorithmen helfen beim Energiesparen, bei der Diagnose von Krankheiten oder im Kundenservice von Unternehmen. Sie unterstützen bei Kaufentscheidungen und der Partnerwahl. Autonomes Fahren und neue Mobilitätskonzepte wären ohne Künstliche Intelligenz nicht denkbar. Zweifellos sind sämtliche Lebensbereiche von Künstlicher Intelligenz betroffen. Das bedeutet aber auch: Die Risiken durch fehlerhafte KI-Systeme, Datenmissbrauch oder Cyberangriffe steigen. KI-Systeme sind für die Nutzer eine Art „Blackbox“, deren Funktionsweise sie weder nachvollziehen noch verstehen können. Sie müssen darauf vertrauen, dass die Hersteller dieser Systeme höchste Sicherheitsstandards eingehalten haben.

Wichtig ist nun, prüfbare Sicherheitsstandards zu etablieren, die KI-Anwendungen gleichzeitig transparent und sicher machen. Wenn dies gelingt, können Produkte und Anwedungen mit KI ein selbstverständlicher Teil unseres Alltags werden. Dazu sind allerdings noch einige Schritte auf politischer Ebene notwendig: Sicherheitsstandards müssen formuliert, ethische Fragen geklärt, Prüfszenarien entwickelt und entsprechende Institutionen benannt werden.

Positionspapiere

Vertrauen in KI-basierte Systeme schaffen

Künstliche Intelligenz (KI) ist zwar keine neue Technologie, sie gewinnt aber durch den technischen Fortschritt und leistungsfähigere Rechner- und Datenübertragungskapazitäten immer größere Bedeutung. Künstliche Intelligenz dringt in immer mehr Lebens- und Wirtschaftsbereiche vor, von Smart Homes über hochassistiertes und automatisiertes Fahren bis hin zu softwaregestützter Endoskopie in der Medizintechnik. Oft in Kombination mit Big Data und Big Data Analytics, deckt KI ein breites Spektrum ab und verspricht große Chancen für Wirtschaft und Gesellschaft. Es gibt dabei aber auch zahlreiche sicherheitstechnische und ethische Herausforderungen.

Aktuelles

Digitalpaket der EU: TÜV-Verband fordert differenzierte Sicherheitsprüfungen für KI-Anwendungen

Der TÜV-Verband hat das heute von der EU-Kommission vorgelegte „Weißbuch Künstliche Intelligenz“ grundsätzlich begrüßt, aber weitere Konkretisierungen gefordert. „Die KI-Strategie der EU-Kommission ist ein wichtiger Schritt auf dem Weg zu einem einheitlichen europäischen Datenraum“, sagte Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands.

Verbraucher wollen Sicherheit und Transparenz bei Künstlicher Intelligenz

Die Verbraucherinnen und Verbraucher in Deutschland fordern mehr Transparenz und Sicherheit beim Einsatz Künstlicher Intelligenz (KI): 85 Prozent der Bundesbürger wollen, dass Produkte und Anwendungen mit Künstlicher Intelligenz klar gekennzeichnet werden. Das hat eine repräsentative Ipsos-Umfrage im Auftrag des TÜV-Verbands ergeben. „Der Ruf nach einer gesetzlichen Regulierung von Künstlicher Intelligenz wird lauter“, sagte Dr. Michael Fübi, Präsident des TÜV-Verbands (VdTÜV), bei der Vorstellung der Studienergebnisse in Berlin.

Unternehmen fordern strengere gesetzliche Vorgaben für IT-Sicherheit

Fast jedes zweite Unternehmen in Deutschland (47 Prozent) fordert höhere gesetzliche Anforderungen an die IT-Sicherheit in der Wirtschaft. Das hat eine repräsentative Ipsos-Umfrage im Auftrag des TÜV-Verbands unter 503 Unternehmen ab 10 Mitarbeitern ergeben. Befragt wurden IT-Sicherheitsverantwortliche, IT-Leiter und Mitglieder der Geschäftsleitung. Demnach stimmen zudem 59 Prozent der Aussage zu, dass Regulierung durch den Gesetzgeber wichtig ist und zu einer besseren IT-Sicherheit ihres Unternehmens beiträgt.