• +39 081 7645443
  • Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.
Ricerca Avanzata Ricerca Avanzata

Intelligenza artificiale: profili di responsabilità

SKU: 9920399009
Autore:
Naddeo Francesca
Estratto Rivista

Comparazione e diritto civile 3/2020

Vai alla Rivista

Issn
2037-5662
Array
39,99 €

PDFStampaEmail

In ambito giuridico la responsabilità per eventuali danni arrecati dai sistemi di intelligenza artificiale rappresenta uno dei profili di maggiore problematicità. Il lavoro in questione si propone di verificare se le norme vigenti, applicabili ai robot intesi come oggetti, siano sufficienti ed adeguate anche in caso di sistemi intelligenti o se, invece, la macchina dotata di software in grado di garantire una capacità di autoapprendimento non imponga un ripensamento della responsabilità per danno occasionato dal suo impiego e, dunque, l’emanazione di norme ad hoc. La disamina ha preso prima in considerazione il quadro normativo europeo con particolare attenzione ai recenti sviluppi e, poi, le norme di diritto italiano. De iure condito, rigettata la tesi del riconoscimento all’AI di una soggettività giuridica, la strada obbligata in materia di responsabilità civile è risultata quella dell’ascrizione della responsabilità per i danni prodotti a terzi in ragione delle azioni di quest’ultima al produttore o utilizzatore della macchina. Quanto ai referenti normativi che possono fondare la responsabilità civile per danni cagionati dall’AI, l’analisi delle diverse figure di responsabilità speciale ha evidenziato come i modelli preferibili siano quello di cui all’art. 2050, ove si ravvisino gli estremi dell’attività pericolosa, ovvero dell’art. 2051 c.c., alternativamente invocabili accanto alla responsabilità del produttore. Con riguardo a quest’ultima, de iure condendo è auspicabile l’inserimento espresso del robot nella definizione di prodotto di cui alla Direttiva n. 85/374/CEE, nonché la previsione dell’algoritmo quale componente del prodotto finale, così da regolamentare anche la responsabilità dell’ideatore dell’algoritmo stesso.

In the legal field, the liability for any damage caused by artificial intelligence (AI) systems represents one of the most problematic profiles. This paper aims to verify whether the current regulations, applicable to robots intended as objects, are sufficient and adequate even in the case of intelligent systems or if the machine equipped with software capable of guaranteeing a self-learning ability imposes a rethinking of liability for damage occasioned by its use and, therefore, the issuing of specific rules. The discussion first took into consideration the European regulatory framework with particular attention to recent developments and then the rules of Italian law. De iure condito, rejected the thesis of the recognition to the AI of a juridical subjectivity, the obligatory path in the matter of civil liability is to ascribe the liability for the damages to third parties due to the actions of the AI to the machine user or producer. As for the regulatory representatives that can establish civil liability for damages caused by the AI, the analysis of the various special liability figures has shown that the preferable models are the ones referred to art. 2050, when there are extremes of the dangerous activity, or to art. 2051 of the Italian Civil Code, alternatively invocable alongside the producer’s liability. With regard to the latter, de iure condendo it is desirable the express inclusion of the robot in the product definition referred to the Directive no. 85/374 / EEC, as well as the provision of the algorithm as a component of the final product, to also regulate the liability of the creator of the algorithm itself.

E-Book: Formato PDF Scaricabile

9920399009.pdf
Nr. Pagine
20
Formato
PDF