Le questioni più controverse nel dibattito sull’IA 嬧€媗aw sono:

L’Artificial Intelligence Act (AIA) dell’UE è il primo tentativo al mondo di legiferare sulle tecnologie emergenti, ma i regolamenti proposti hanno ancora molta strada da fare prima che diventino legislativi. Nei prossimi mesi il Parlamento Europeo discuterà il previsto processo di intenso lobbying. Monitor tecnico Abbiamo messo insieme i punti di vista di gruppi industriali e eurodeputati su una tela per identificare le questioni più controverse nel dibattito.
Alcuni eurodeputati e gruppi per i diritti digitali sono preoccupati che i giganti della tecnologia possano avere il maggiore impatto sul dibattito dell’AIA. (Photo by Thierry Monas / Getty Images)
Definizione della discussione: risposta dell’industria tecnologica alla legge sull’IA
I colloqui pubblici della Commissione europea sulla legge sull’IA hanno attratto Invia feedback 304 Molto più di qualsiasi altra fattura tecnologica. Le società tecnologiche e le associazioni di categoria sostengono posizioni che probabilmente faranno pressioni duramente nei prossimi mesi. Nel complesso, è necessaria maggiore chiarezza su aspetti dell’AIA, come la definizione di IA, la classificazione delle applicazioni di IA “ad alto rischio” (soggetto a una regolamentazione più severa e, in alcuni casi, a divieti completi). L’IA proposta fa “danno”.
TechUK, un’organizzazione leader nel settore tecnologico del Regno Unito, ha affermato in una richiesta di feedback che l’attuale definizione di intelligenza artificiale è troppo ampia per “oltre ciò che di solito è considerato” intelligente “” e la legge è un software statistico. E anche quelli generali sembrano essere coperti. Programma per computer. Huawei e IBM hanno ribadito queste preoccupazioni richiedendo una definizione più ristretta di “sistema di intelligenza artificiale” nelle rispettive comunicazioni.
L’attuale definizione di IA dell’AIA si rivolge agli approcci di apprendimento automatico, inclusi l’apprendimento per rinforzo e l’apprendimento profondo. Approcci logici e basati sulla conoscenza (inclusi motori di inferenza e deduzione); approcci statistici, tecniche di inferenza bayesiana, recupero e ottimizzazione. L’intelligenza artificiale “genera output, come contenuto, previsioni, raccomandazioni o decisioni che influiscono sull’ambiente in cui interagiscono, per un insieme specifico di obiettivi definiti dall’uomo”. L’IA come uso di queste tecniche. È definito.
Le preoccupazioni sulla definizione normativa dell’IA non riguardano esclusivamente il settore tecnologico. Avvocati e studiosi ad aprile, quando è stato annunciato il disegno di legge Disse Monitor tecnico L’attuale definizione è troppo tecnica e può diventare rapidamente obsoleta. Hanno sostenuto l’uso di una definizione basata su caratteristiche o effetti piuttosto che su una tecnologia che rifletta più da vicino la definizione messa insieme dal gruppo di esperti ad alto livello sull’IA (HLEG) convocato dall’UE e dall’OCSE.
TechUK ha anche problemi a classificare i sistemi di intelligenza artificiale ad alto rischio. I sistemi di IA ad alto rischio elencati nell’AIA includono l’IA utilizzata per la biometria, la gestione delle infrastrutture critiche, le forze dell’ordine o il controllo delle frontiere. TechUK ritiene che ciò che è considerato “ad alto rischio” sia definito come “comprese le applicazioni di intelligenza artificiale che sono troppo ampie per essere regolamentate”. Suggeriamo invece di designare i sistemi di IA ad alto rischio solo come sistemi che potrebbero danneggiare gli utenti.
Anche le aziende tecnologiche sono insoddisfatte del divieto dell’AIA sulla “tecnologia subliminale al di là della coscienza umana per distorcere sostanzialmente il comportamento”. Le aziende tecnologiche che utilizzano l’apprendimento automatico Forniscono annunci mirati Come Facebook, sono particolarmente desideroso di chiarire questa frase. TechUK vuole essere più chiaro su cosa significa e quali standard legali vengono utilizzati per valutarlo.
Le preoccupazioni delle PMI sugli standard e sui costi di conformità
Le PMI hanno una serie di preoccupazioni diversa rispetto alle grandi aziende tecnologiche. Annika Linck, Senior Policy Manager per le PMI digitali europee, ha dichiarato: Alliance, un’organizzazione che rappresenta le PMI nel settore ICT europeo. Tuttavia, l’organizzazione è critica nei confronti dell’AIA. “Perché fa molto affidamento sugli standard che provengono dagli organismi di standardizzazione, che di solito sono pochissimi rappresentanti delle PMI”.
“Di solito, i rappresentanti delle PMI fanno molto affidamento sugli standard provenienti da pochissimi organismi di normalizzazione”.
Anika Link, Alleanza europea delle PMI digitali
Le PMI tendono a non avere il tempo di entrare a far parte del comitato tecnico, afferma Link. Ciò significa che è probabile che questi criteri siano modellati dalle grandi aziende. La preoccupazione è che le PMI faticano a rispettare le valutazioni di conformità basate su questi criteri. Linck suggerisce che se l’UE sceglie un approccio guidato dalla standardizzazione, probabilmente dovrà anche assicurarsi un rappresentante delle PMI negli organismi di normalizzazione, magari pagando una quota di partecipazione.
I costi di conformità sono un’altra area di interesse per le PMI. L’UE sta attualmente stimando un costo di circa £ 7.000 per l’esecuzione di una valutazione di conformità da parte di un’azienda. Ma quando si parla con le piccole imprese, questo non sembra essere molto realistico nella pratica, dice Link perché è solo un costo di audit. Dice anche che il costo del lavoro del personale che deve prepararsi per la valutazione internamente e potrebbe dover assumere un consulente esterno.
La risposta dell’eurodeputato alla legge sull’IA
Gli atteggiamenti tra i deputati, d’altra parte, vanno dalle preoccupazioni per il contenimento dell’innovazione alle preoccupazioni per il fatto che i rischi per i diritti umani rimangano incontrollati. “”L’intelligenza artificiale determina se possiamo rimanere competitivi nell’arena digitale “, afferma Axel. Voss, membro tedesco del Partito popolare europeo di centrodestra al Parlamento europeo. 淭la legge deve coprire un elevato livello di standard etici combinati con regole di responsabilità adeguate, lasciando ampio spazio all’innovazione, soprattutto per le piccole imprese. Il giusto equilibrio tra privacy, sicurezza e innovazione. È importante scoprire ed evitare un’eccessiva regolamentazione del mercato dell’IA. ”
淚è importante trovare il giusto equilibrio tra privacy, sicurezza e innovazione per evitare un’eccessiva regolamentazione del mercato dell’IA.滭br/>Capo dell’acceleratore, Partito Popolare Europeo
DragoNS Tudorache, capo della commissione AI 嬧€媍 del Parlamento europeo Enfasi L’importanza di garantire che il nuovo sistema normativo non ostacoli l’innovazione dell’IA.
Altri gruppi temono che la legge sull’IA dia la priorità agli interessi aziendali rispetto agli interessi dei cittadini.bozza Alexandra Geese, un membro tedesco del gruppo dei Verdi del Parlamento europeo, afferma che la regolamentazione è “incentrata sul business” piuttosto che “incentrata sull’uomo”. “Le preoccupazioni sui diritti di base e la tecnologia di intelligenza artificiale nella nostra società, in particolare [more vulnerable] Il gruppo di popolazione non viene trattato [by the AIA].. “
Goose teme che il lobbying Big Tech possa sopraffare l’esito delle deliberazioni del Congresso. Sono stati trovati rapporti recenti di Corporate Europe e Lobby Control Dei 271 incontri tenuti dai funzionari della Commissione europea ai sensi del Digital Services Act (un altro regolamento digitale di successo), il 75% era con lobbisti del settore. Google e Facebook si sono distinti.
Analisi di Nuovo statista trovato Modello simile A livello di Parlamento europeo. Alcuni eurodeputati e gruppi per i diritti digitali sono preoccupati che i giganti della tecnologia possano avere il maggiore impatto sul dibattito dell’AIA.
Battaglia per il riconoscimento facciale
Il riconoscimento facciale sta diventando uno dei più controversi Il campo di battaglia del processo parlamentare.淏iometrics si inserisce nel classico dibattito sui diritti digitali e sulla privacy ed è già nella campagna, afferma Geese. “Ma penso che sia difficile perché ci sono ministri degli interni che lo vogliono, quindi sarebbe una discussione interessante”.
L’AIA attualmente vieta “la biometria remota in tempo reale in spazi accessibili al pubblico per scopi di contrasto, a meno che non si applichino determinate eccezioni limitate”, ma l’European Digital Rights Group (Edri) Questo “può essere configurato per la sorveglianza di massa biometrica”.
Edri generalmente vieta l’uso della biometria remota negli spazi accessibili al pubblico per tutti gli scopi e utilizza l’IA per riconoscere automaticamente le caratteristiche umane negli spazi accessibili al pubblico. Stiamo proponendo una proposta di divieto molto più forte, come il divieto.
Edri vieta inoltre l’IA utilizzata nel campo delle forze dell’ordine o della giustizia penale allo scopo di prevedere comportamenti futuri e utilizza l’IA nel campo della gestione dell’immigrazione in un modo che lede il diritto di chiedere asilo. , E vari altri usi. Attualmente considerati “ad alto rischio” ma non banditi, affermano di essere “incompatibili con i diritti fondamentali e la democrazia”. Il gruppo per i diritti Access Now ha un sistema di riconoscimento delle emozioni, ecc. Anche usato dal dipartimento doganale e dell’immigrazione degli Stati Uniti dovrebbe essere bandito del tutto.
“Chiedo che la porta sul retro legale per la sorveglianza di massa con software biometrico venga chiusa”.
Svenja Khan, LDP
Queste sono battaglie in cui le tensioni sui diritti fondamentali vengono in primo piano. Svenja Hahn, un membro tedesco del Partito Liberal Democratico del Parlamento Europeo, ha dichiarato: “Dobbiamo proteggere il diritto dei cittadini all’anonimato pubblico”.
Dall’altro lato del dibattito, l’eurodeputato si oppone a un divieto a livello di classe dell’IA. “È necessario regolamentare i sistemi di IA ad alto rischio, ma requisiti sproporzionati per prodotti e servizi di IA mineranno la ricerca e l’innovazione, il potenziale di crescita dell’Europa e la competitività internazionale”, ha affermato Voss. Dice. “Invece di vietare tutti gli aspetti dell’IA, come il riconoscimento facciale, tale tecnologia [provide] Per la nostra sicurezza, dobbiamo attenerci al principio della regolamentazione “per quanto necessario, il meno possibile”.
Giornalista anziano
Raleigh è un giornalista senior di TechMonitor.
VERITÀ Social: Donald Trump lancia la propria app social per “Confront Big Tech” La madre è rimasta devastata dopo che il cane ha ucciso il bambino WKRG News 5 Insulti, ferite i Dodgers all’estremità della sottilissima corda della NLCS Silicon Valley Il chirurgo ha trapiantato un maiale rene in una persona e ha funzionato normalmente Piattaforma di apprendimento aziendale 360 L’apprendimento aumenta $ 200 milioni TechCrunch Ultime notizie sulla tecnologia
- VERITÀ Social: Donald Trump lancia la propria app social per “Confront Big Tech” La madre è rimasta devastata dopo che il cane ha ucciso il bambino WKRG News 5 Insulti, ferite i Dodgers all’estremità della sottilissima corda della NLCS Silicon Valley Il chirurgo ha trapiantato un maiale rene in una persona e ha funzionato normalmente Piattaforma di apprendimento aziendale 360 L’apprendimento raccoglie $ 200 milioni TechCrunch