TEL.: +43 1 246 30-801  |  E-MAIL: support@lindeverlag.at
Suchen Hilfe
Hanzl/Pelzmann/Schragl (Hrsg)

Handbuch Digitalisierung

1. Aufl. 2021

ISBN: 978-3-7073-4207-9

Besitzen Sie diesen Inhalt bereits, melden Sie sich an.
oder schalten Sie Ihr Produkt zur digitalen Nutzung frei.

Dokumentvorschau
Handbuch Digitalisierung (1. Auflage)

S. 513Wie bereits an mehrfacher Stelle dieses Buches dargelegt, gibt es derzeit keine einheitliche Definition von Künstlicher Intelligenz („KI“), wenngleich wohl Konsens über die in Zukunft immer größer werdende Bedeutung von KI und autonomen Softwareagenten besteht. Dem Mangel einer Definition mag es womöglich auch geschuldet sein, dass es – in Relation zur Bedeutung dieser Technologie – noch relativ wenig (zivilrechtliche) Auseinandersetzungen mit dieser Thematik gibt. Bereits der Use Case von Dishtracker (siehe Beitrag Angewandte Künstliche Intelligenz – Use Case „Dishtracker“ von Hirner) zeigt, dass KI im (Unternehmer-)Alltag angekommen ist und bereits zur Anwendung kommt. Dennoch ist nicht (vollständig) geklärt, wie mit Fehlern, die von autonomen Systemen begangen werden, umgegangen werden soll – konkret stellt sich die Frage: wer haftet, wenn ein autonomes System Schäden verursacht? Der folgende Beitrag versucht auf diese Frage eine erste Antwort zu geben und analysiert die Haftung für autonome Systeme aus Perspektive der Verschuldens-, Produkt- und Gefährdungshaftung.

1. Künstliche Intelligenz – ein Use Case Approach

1.1. Charakteristika von „Künstlicher Intelligenz“

Wie im Kapitel R...

Daten werden geladen...