intelligenza artificiale
L'utilizzo corretto delle tecnologie legate all'intelligenza artificiale pone quesiti di natura etica oltre che legati alla legislazione europea di riferimento. L'Università di Bologna e quella di Oxford insieme per una nuova metodologia di auditing

Districarsi nella fitta rete della normativa europea, evitando che i sistemi di intelligenza artificiale si comportino in modo non etico o provochino danni agli individui, alla società e all’ambiente.
Dal lavoro congiunto dell’Università di Bologna e dell’Università di Oxford arriva una nuova metodologia che aiuta le imprese a seguire le future normative europee sui sistemi di intelligenza artificiale.

capAI: etica e legalità al primo posto

L’iniziativa, che sarà d’aiuto alle imprese nel coordinamento dell’approccio europeo rispetto alle implicazioni umane ed etiche dell’IA, è nata come risposta al regolamento sull’intelligenza artificiale avanzata lo scorso anno dalla Commissione europea.

“capAI” (conformity assessment procedure for AI), questo il nome della nuova metodologia, è stata messa a punto da un gruppo di esperti del Centro per l’Etica Digitale (CEDE) attivo al Dipartimento di Scienze Giuridiche dell’Università di Bologna, della Saïd Business School e dell’Oxford Internet Institute dell’Università di Oxford e sarà fondamentale per una valutazione degli attuali sistemi di intelligenza artificiale.

Prevenire violazioni della privacy ed un uso scorretto dei dati

Uno dei fattori che preme di più al mondo aziendale è quello di prevenire violazioni della privacy e un utilizzo scorretto dei dati. Ma non solo. Grazie a questo nuovo strumento, i risultati ottenuti dai sistemi IA potranno essere vagliati e studiati in ottica di uno sviluppo  conforme all’Artificial Intelligence Act europeo.

Le imprese potranno produrre una scheda di valutazione per ognuno dei loro sistemi di intelligenza artificiale, che potrà essere condivisa con i loro clienti. In questo modo sarà possibile mostrare come vengono applicate le good practices e come avviene la gestione consapevole delle problematiche etiche legate all’IA.

Come si è arrivati a capAI

Per mettere a punto il percorso di capAI, si è partiti creando il più grande database esistente sugli errori prodotti da sistemi di IA e si è creata poi una cassetta degli attrezzi unica al mondo per aiutare le organizzazioni a sviluppare e gestire sistemi di intelligenza artificiale a norma di legge, tecnicamente solidi e rispettosi dei principi etici.

Il sistema, inoltre, può anche aiutare a monitorare la progettazione, lo sviluppo e l’utilizzo delle tecnologie di IA, a mitigare i rischi di errori e la mancanza di fiducia in questi sistemi, a prevenire danni sia sul piano economico sia su quello dell’immagine pubblica, e a valutare le implicazioni etiche, legali e sociali delle tecnologie di IA.

L’intelligenza artificiale, nelle sue molteplici forme, è pensata come strumento a beneficio dell’umanità e dell’ambiente: è una tecnologia estremamente potente, ma può diventare anche pericolosa”, ha sottolineato il professor Luciano Floridi, direttore del Centro per l’Etica Digitale (CEDE) dell’Università di Bologna, docente all’Oxford Internet Institute. Per questo, abbiamo sviluppato una metodologia di audit in grado di verificare che i sistemi di IA siano in linea con la legislazione europea e rispettino i principi etici: in questo modo possiamo contribuire a garantire lo sviluppo e l’utilizzo corretto di queste tecnologie”.

Per saperne di più: leggi il documento integrale