Für Künstlich Intelligenz (KI) können sich viele begeistern.
Die neuen Technologien eröffnen ungeahnte Möglichkeiten und machen uns das Leben in vielen Belangen einfacher. Aber natürlich gibt es auch Bedenken. Sollte die KI einmal fehlerhaft sein oder versagen, könnten die Konsequenzen fatal sein. Insbesondere im Bereich der Maschinensicherheit können vom einwandfreien Funktionieren der KI Menschenleben abhängen.
KI schürt Hoffnungen und Ängste gleichermaßen
Künstliche Intelligenz gilt als einer der wichtigsten Zweige der aktuellen technologischen Entwicklung. Wirtschaft und Unternehmen sehen in der KI-Technologie großes Potential und verschiedenste, vielversprechende Anwendungsmöglichkeiten. Auch in unserem Alltag ist die KI bereits angekommen und unterstützt uns beispielsweise in Form von Sprachassistenten. In Zukunft wird die neue Technologie noch weit mehr Aufgaben übernehmen und noch mehr Raum in unserem Leben einnehmen. Kein Wunder also, dass wir wissen möchten, ob wir ihr auch vertrauen können.
Die Vorstellung, die Verantwortung für unser und das Leben unserer Mitmenschen einer Maschine anzuvertrauen löst bei vielen Bedenken aus. Natürlich ist es eine angenehme Vorstellung auf dem Weg zur Arbeit noch ein wenig entspannen zu können, während die KI in unserem Wagen das Fahren für uns übernimmt. Aber was, wenn sie fehlerhaft ist oder plötzlich ausfällt und wir mit Tempo 170 in ein Stauende rasen, das sie nicht erkannt hat? Ein Roboter kann uns schwere Arbeiten in der Produktion abnehmen, aber kann er uns nicht mit einer falschen Bewegung ebenso gut in Gefahr bringen?
Am Fraunhofer Institut für Experimentelles Software Engineering beschäftigt man sich mit diesen Fragen. Hier sehen die Experten sowohl die großartigen Chancen, die mit der Technologie verbunden sind, als auch die möglichen Risiken, als technische Herausforderung.
Wann ist Künstliche Intelligenz sicher?
Bisherige Sicherheitsvorkehrungen und -standarts seien für KI-Anwendungen nur bedingt geeignet, so die Experten. Gängige Sicherheitsstrategien basierten auf der Idee des vollständigen Verstehens eines Systems, was aber bei einer KI-Beteiligung nicht mehr gegeben ist. Hier sind also andere Ansätze und Herangehensweisen gefragt.
Wie nun damit umgehen? Am Fraunhofer Institut weißt man darauf hin, dass der Nachweis von Sicherheit grundsätzlich immer ein Restrisiko einschließt und somit eine der grundlegenden Fragen sei, wie hoch dieses Restrisiko sein darf. Im Falle eines autonom fahrenden Wagens beispielsweise, kann das bei einem menschlichen Fahrer bestehende Unfallrisiko als Maßstab für die Bewertung des Risikos durch KI-gesteuerte Fahrzeuge herangezogen werden. Es ist durchaus wahrscheinlich, dass mit der KI-Technologie auf dauer sogar ein geringeres Risiko erreicht werden kann, aber ganz ohne Restrisiko werden wir wohl so oder so nie leben.