Modellare le normative sulle auto senza conducente dopo il processo di approvazione dei farmaci, sostengono gli esperti di etica dell’IA

Modellare le normative sulle auto senza conducente dopo il processo di approvazione dei farmaci, sostengono gli esperti di etica dell'IA
Un’auto senza conducente si trova di fronte alla Carnegie Mellon University, dove due esperti di etica dell’intelligenza artificiale affermano che le normative dovrebbero essere modellate sul processo di approvazione dei farmaci. Credito: Carnegie Mellon University

I sistemi autonomi, come le auto senza conducente, svolgono compiti che prima potevano essere svolti solo dall’uomo. In un nuovo Sistemi intelligenti IEEE Il pezzo di Expert Opinion, David Danks e Alex John London, esperti di etica dell’intelligenza artificiale della Carnegie Mellon University, sostengono che le attuali normative di sicurezza non pianificano questi sistemi e sono quindi mal equipaggiate per garantire che i sistemi autonomi funzionino in modo sicuro e affidabile.

“Attualmente garantiamo la sicurezza sulle strade regolando le prestazioni dei vari sistemi meccanici dei veicoli e concedendo la licenza ai conducenti”, ha affermato London, professore di filosofia e direttore del Center for Ethics and Policy del Dietrich College of Humanities and Social Sciences. “Quando le auto si guidano da sole, non abbiamo un sistema comparabile per valutare la sicurezza e l’affidabilità dei loro sistemi di guida autonoma”.

Danks e London indicano il recente tentativo del Dipartimento dei trasporti di sviluppare norme di sicurezza per le auto senza conducente come esempio di linee guida tradizionali che non testano e monitorano adeguatamente le nuove capacità dei sistemi autonomi. Suggeriscono invece di creare un sistema dinamico a fasi che assomigli al processo di regolamentazione e approvazione per farmaci e dispositivi medici, incluso un solido sistema per il monitoraggio post-approvazione.

“Le auto a guida autonoma e i sistemi autonomi si stanno rapidamente diffondendo in ogni parte della società, ma il loro uso efficace dipende dal fatto che possiamo fidarci e comprenderli”, ha affermato Danks, professore di Filosofia e Psicologia di LL Thurstone e capo del Dipartimento di Filosofia . “Noi, come società, dobbiamo trovare nuovi modi per monitorare e guidare lo sviluppo e l’implementazione di questi sistemi autonomi”.

Il processo graduale proposto da Danks e London inizierebbe con “prove precliniche” o test in ambienti simulati, come le auto a guida autonoma che navigano in vari paesaggi e climi. Ciò fornirebbe informazioni su come il sistema autonomo prende decisioni in un’ampia gamma di contesti, in modo che possiamo capire come potrebbero agire in nuove situazioni future.

Prestazioni accettabili permetterebbero al sistema di passare a studi “in-umani” attraverso un’introduzione limitata negli ambienti del mondo reale con “copiloti” umani addestrati. Il successo delle prove in questi ambienti mirati porterebbe quindi a test monitorati e basati sui permessi e un ulteriore allentamento delle restrizioni man mano che gli obiettivi di prestazione sono stati raggiunti.

Danks e London propongono che questo sistema di regolamentazione dovrebbe essere modellato e gestito in modo simile a come la Food and Drug Administration regola il processo di approvazione dei farmaci.

“I veicoli autonomi hanno il potenziale per salvare vite umane e aumentare la produttività economica. Ma questi vantaggi non si realizzeranno a meno che il pubblico non disponga di una certezza credibile che tali sistemi siano sicuri e affidabili”, ha affermato London.


Leave a Reply