Il danno rinveniente dall’utilizzazione di dispositivi di I.A. e le ricadute in tema di responsabilità civile e limiti risarcitori sono oggetto di dibattito costante. Nel saggio la problematica è circoscritta all’ambito del danno consequenziale alla diffusione d’informazioni fallaci riconducibili ad un errore dell’algoritmo, specie se idoneo a generarle in completa autonomia mediante l’autoapprendimento. Danno configurabile nei confronti non solo di coloro che tale dato elaborato hanno espressamente commissionato ma anche nei confronti dei terzi che, pur se completamente estranei ad ogni rapporto con la macchina e/o con l’algoritmo che tramite essa opera, hanno recepito il dato elaborato per orientare le proprie scelte di consumo, finanziarie, economiche etc. Dopo un breve excursus ricostruttivo del dibattito legislativo in corso in sede Comunitaria, oscillante tra un approccio basato sulla responsabilità per colpa o all’opposto verso ipotesi di responsabilità oggettiva, in attesa di futuri approdi legislativi, si è cercato d’individuare nel nostro sistema possibili risposte interpretative coerenti con la constatazione che, nelle cd. macchine E Learning, la prospettiva d’indagine va spostata dalla considerazione della cosa in sé, quale oggetto governabile dall’uomo, alla considerazione dell’elaborato della cosa, quale attività riconducibile direttamente alla decisione della macchina che agisce con processo di elaborazione dei dati simile a quello proprio degli uomini, il che potrebbe ritagliare un possibile ruolo all’applicazione dell’art. 2049 c.c.
Il danno da errata informazione elaborata da algoritmo: le categorie della responsabilità civile e i “blade runner”
Salvatore Monticelli
2024-01-01
Abstract
Il danno rinveniente dall’utilizzazione di dispositivi di I.A. e le ricadute in tema di responsabilità civile e limiti risarcitori sono oggetto di dibattito costante. Nel saggio la problematica è circoscritta all’ambito del danno consequenziale alla diffusione d’informazioni fallaci riconducibili ad un errore dell’algoritmo, specie se idoneo a generarle in completa autonomia mediante l’autoapprendimento. Danno configurabile nei confronti non solo di coloro che tale dato elaborato hanno espressamente commissionato ma anche nei confronti dei terzi che, pur se completamente estranei ad ogni rapporto con la macchina e/o con l’algoritmo che tramite essa opera, hanno recepito il dato elaborato per orientare le proprie scelte di consumo, finanziarie, economiche etc. Dopo un breve excursus ricostruttivo del dibattito legislativo in corso in sede Comunitaria, oscillante tra un approccio basato sulla responsabilità per colpa o all’opposto verso ipotesi di responsabilità oggettiva, in attesa di futuri approdi legislativi, si è cercato d’individuare nel nostro sistema possibili risposte interpretative coerenti con la constatazione che, nelle cd. macchine E Learning, la prospettiva d’indagine va spostata dalla considerazione della cosa in sé, quale oggetto governabile dall’uomo, alla considerazione dell’elaborato della cosa, quale attività riconducibile direttamente alla decisione della macchina che agisce con processo di elaborazione dei dati simile a quello proprio degli uomini, il che potrebbe ritagliare un possibile ruolo all’applicazione dell’art. 2049 c.c.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.