Intelligenza artificiale: aspetti giuridici

24 · 6 · 20

Gli aspetti giuridici dell’intelligenza artificiale

 

Gli aspetti giuridici dell’intelligenza artificiale sono questioni importanti e delicate, da tenere sicuramente presenti quando si usa questa tecnologia così innovativa e quindi di difficile catalogazione giuridica. Scopriamo insieme perché avendo cura, però, di spiegare prima cosa si intenda generalmente per intelligenza artificiale.

 

Intelligenza artificiale: cos’è

Come ampiamente trattato nel nostro precedente articolo, sappiamo che per intelligenza artificiale si intende un concetto decisamente ampio e basato sui processi e ragionamenti, ma anche sulle dinamiche comportamentali del pensiero umano le cui applicazioni aumentano sempre di più al giorno d’oggi, anche e soprattutto grazie ai big data e alla cosiddetta “machine learning” ovvero alle capacità di autoapprendimento sviluppate in sinergia con l’intelligenza umana, detta anche naturale (per maggiori informazioni su cosa sia l’intelligenza artificiale, quale sia il suo scopo e per quale motivo venga applicata a modelli di business si veda qui).

 

Intelligenza artificiale: aspetti giuridici

Quando si parla di intelligenza artificiale le problematiche giuridiche che si incontrano sono decisamente ampie e sconfinano spesso oltre il diritto dell’informatica, questo anche perché l’intelligenza artificiale ed i modelli di business a questa applicata hanno un ampio perimetro di applicazione. Alcuni esempi di tematiche giuridiche in riferimento all’intelligenza artificiale possono essere:

  • la protezione dell’intelligenza artificiale (in termini di creatività dell’opera e di novità ed originalità dell’invenzione potenzialmente brevettabile dove ne ricorrano i presupposti così come i profili di convenienza economica)
  • la tutela dei database (i quali raccolgono dati ed informazioni a cui l’intelligenza artificiale attinge per lavorare)
  • i marchi, le opere di ingegno e tutti gli altri atti di sfruttamento da parte dell’intelligenza artificiale di beni immateriali
  • l’applicazione dell’intelligenza artificiale per il trafugamento e la manipolazione di dati (cosiddetto cyber-crime)

Questi ovviamente sono solo alcuni esempi delle tematiche giuridiche applicabili all’intelligenza artificiale che in realtà sono e possono essere molti di più dal momento che le applicazioni della stessa A.I. (artificial intelligence) sono talmente innovative che spesso non si riesce nemmeno a trovare sufficienti riscontri empirici (questo anche perché è difficile capire come può l’A.I. svilupparsi nel futuro a causa delle sue specifiche caratteristiche intrinseche e dei suoi processi di autoapprendimento).

Secondo quanto appena detto, le applicazioni innovative unite all’impossibilità di preconfigurare le traiettorie di sviluppo dell’A.I. comportano una certa carenza nello sviluppo e redazione di norme ad hoc sulla stessa e tale carenza altro non fa che rendere il contesto d’insieme ancora più indefinito. In altre parole, si aspetta che il vissuto esperienziale fornisca spunti validi per svolgere un’interpretazione appropriata, così come una codificazione giuridica delle problematiche e criticità, di tale tecnologia. Su questa base si riscontrano infatti problematiche anche la previsione di clausole contrattuali dal momento che spesso risulta difficile identificare persone fisiche o giuridiche dietro a tali applicazioni che di norma sono formalmente spersonalizzate. 

 

I rischi giuridici collegati allo sviluppo dell’intelligenza artificiale 

È chiaro come i cambiamenti che l’intelligenza artificiale apporta abbiano inevitabili riflessi sul piano normativo e sociale ed uno degli aspetti più complessi riguarda sicuramente la personalità giuridica di tali sistemi intelligenti i quali, nello svilupparsi, comprendono due tipi di rischi diversi: quelli determinati dalla causalità e quelli determinati dai dati. 

 

I rischi determinati dalla causalità

Questo tipo di rischi fanno riferimento al modo in cui vengono decise tutte le questioni che risultano relative all’imputazione della responsabilità umana ovvero all’attribuzione ad un essere umano delle conseguenze empiriche e reali risultanti da un atto doloso commesso. L’essere umano il cui atto risulta doloso viene individuato tramite il principio di causalità il quale richiede ovviamente l’applicazione di una legge scientifica di copertura in grado di ricondurre un determinato evento alla sua causa grazie ad un rapporto di causa/effetto. Tali principi di causalità, quando applicati a processi decisionali algoritmici di machine learning, comportano un limite che risiede nel fatto che le decisioni che la macchina prende (o le azioni che compie) possono allontanarsi sempre più da qualsiasi logica che l’essere umano ha realizzato nel codice software. 

Per capire come gestire legalmente questo tipo di rischi si può far riferimento sia al cosiddetto GDPR (Regolamento Generale in materia di protezione dei Dati Personali) sia nella Direttiva n. 680 del 27 aprile del 2016 anche questa disposta in materia di protezione delle persone fisiche per la prevenzione, l’indagine l’accertamento ed il perseguimento di di reati riguardanti il trattamento dei dati personali. L’articolo 11 di tale Direttiva, ad esempio, rammenta come sia vietata qualsiasi decisione che si basi su un trattamento automatizzato dei dati, compresa la profilazione, e che produca effetti giuridici negativi o incida negativamente sul soggetto interessato. Ovviamente a meno che tale decisione non sia autorizzata dal diritto dell’Unione o dello Stato membro a cui è soggetto il titolare del trattamento.

 

I rischi determinati dai dati

Questo tipo di rischi, specialmente quelli determinati dai cosiddetti big datas, possono anche essere intesi come rischi interni al sistema stesso e questo perché il flusso dei dati generati dai dispositivi intelligenti e la disponibilità di modelli ed algoritmi di machine learning di analisi predittiva costituiscono, di base, fattori di rischio per la privacy e la protezione dei dati personali. Lo smart streaming, ad esempio, è già un argomento tenuto sotto controllo da parte dei Regolatori e lo dimostra anche la strategia pubblicata dalla Commissione Europea per lo sviluppo di un’infrastruttura intelligente di trasporto che permetta ai veicoli di comunicare tra di loro con un sistema centralizzato di gestione del traffico (CITS: Strategy on Co-operative Intelligent Transport System). Anche in questo caso è evidente come vi sia un potenziale rischio di utilizzo improprio di dati, dal momento che l’infrastruttura intelligente è capace di identificare ogni singolo veicolo in tempo reale lungo il suo percorso conoscendone quindi non solo la posizione ma anche la destinazione ed essendo in grado di riportare anche il comportamento del conducente del veicolo stesso così come ogni eventuale infrazione che il soggetto può fare alle norme di circolazione. 

 

Conclusioni

Per far in modo che la tecnologia dell’intelligenza artificiale possa svilupparsi in modo protetto (sia per il software e per i suoi algoritmi ma anche per la protezione dei dati personali dei soggetti che la utilizzeranno) è necessario quindi che si ricerchi un’adeguata protezione brevettuale in grado di supportare le sviluppo di una tale tecnologia. Questa necessità è sentita e condivisa a livello europeo ed è per questo che lo scorso maggio 2018 si è tenuta la prima conferenza dell’EPO (European Patent Office) in tema, appunto, della protezione dell’intelligenza artificiale.

 

 Clicca qui per conoscere tutte le nostre proposte di consulenza in marketing strategico

Inoltre con noi la prima consulenza di marketing è gratis! Che vuoi di più? Richiedi subito informazioni!

 

E come se non bastasse solo Marketing Col Cuore ti dà la garanzia Soddisfatti o Rimborsati al 100%. Non lo sapevi? Scopri di cosa si tratta.

Lascia un Commento

0 commenti

Invia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *