Articolo pubblicato su altalex
1. L’Importanza della definizione di intelligenza artificiale nell’AI Act
Preliminare alla comprensione del fenomeno dell’intelligenza artificiale è capire quali sono i sistemi che vi sono ricompresi.
Il Regolamento sull’Intelligenza Artificiale (AI Act) dell’Unione Europea non si applica indiscriminatamente a tutti i sistemi tecnologici, ma specificamente a quelli che soddisfano la definizione di “sistema di intelligenza artificiale”.
Questa definizione non è una mera questione semantica, bensì un elemento fondamentale per delineare l’ambito della normativa, individuare le tecnologie che comportano rischi etici e legali, e garantire una corretta ed uniforme applicazione della legge.
Le linee guida in commento, sebbene non vincolanti, assolvono al compito di chiarire i confini tra i sistemi di IA e i software tradizionali attraverso la definizione di sette elementi chiave, ciascuno con un ruolo ben preciso nel determinare se un sistema ricade sotto la regolamentazione dell’AI Act.
2. Definizione di sistema di IA
Secondo l’AI Act, un sistema di IA è definito come: “Un sistema basato su macchina progettato per operare con diversi livelli di autonomia e che può mostrare adattabilità dopo il suo impiego, e che, per obiettivi espliciti o impliciti, deduce, in base agli input che riceve, come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”
Questa definizione si articola in sette elementi chiave:
- Sistema basato su macchina: Un sistema di IA deve essere implementato e operare su macchine, includendo sia componenti hardware (unità di elaborazione, memoria) che software (codice, istruzioni). Questa caratteristica sottolinea la natura computazionale e l’uso di macchine per l’elaborazione dei dati e l’esecuzione delle operazioni necessarie al sistema di IA. Questo include anche i sistemi di calcolo quantistico e sistemi biologici o organici che hanno capacità computazionale.
- Autonomia: Il sistema deve essere progettato per operare con vari livelli di autonomia, ovvero con un certo grado di indipendenza dall’intervento umano. Questa autonomia è legata alla capacità del sistema di agire senza un controllo umano diretto, producendo output senza la necessità di un’esplicita specifica manuale. L’autonomia non implica necessariamente l’assenza totale di interazione umana, ma si riferisce alla capacità del sistema di generare risultati in modo indipendente. È importante notare che i sistemi progettati per operare solo con intervento umano non sono considerati sistemi di IA.
- Adattabilità: Un sistema di IA può mostrare adattabilità dopo la sua implementazione, ovvero la capacità di modificare il proprio comportamento sulla base dell’esperienza acquisita. Questa adattabilità si manifesta attraverso la capacità di autoapprendimento del sistema, che permette di modificare il suo comportamento nel tempo. È importante notare che, secondo l’AI Act, l’adattabilità non è un requisito obbligatorio, ma è una caratteristica comune nei sistemi di IA più avanzati.
- Obiettivi: Un sistema di IA opera per obiettivi espliciti o impliciti. Gli obiettivi espliciti sono definiti in modo chiaro dal programmatore, mentre gli obiettivi impliciti possono essere dedotti dal comportamento o dalle assunzioni sottostanti del sistema. È cruciale distinguere tra gli obiettivi interni del sistema e lo scopo previsto del suo utilizzo.
- Inferenza: Un sistema di IA deve essere in grado di inferire, a partire dagli input che riceve, come generare output. Questa capacità di inferenza è un aspetto chiave che distingue i sistemi di IA dai software tradizionali. L’inferenza può avvenire attraverso diverse tecniche, tra cui l’apprendimento automatico (machine learning) e approcci logico-simbolici. L’apprendimento automatico include modelli supervisionati, non supervisionati, auto-supervisionati e per rinforzo. Gli approcci logico-simbolici si basano su regole e conoscenze codificate per dedurre i risultati. La capacità di inferire è essenziale sia nella fase di costruzione che in quella di utilizzo del sistema.
- Output: Un sistema di IA genera output come previsioni, contenuti, raccomandazioni o decisioni. Le previsioni sono stime su valori sconosciuti, i contenuti sono materiali generati dal sistema (testi, immagini, ecc.), le raccomandazioni sono suggerimenti basati sui dati, e le decisioni sono scelte fatte autonomamente dal sistema. Ogni categoria di output si distingue per il livello di coinvolgimento umano e per le diverse implicazioni che ciascuna può avere sull’ambiente circostante.
- Influenza su ambienti fisici o virtuali: Gli output generati da un sistema di IA hanno la capacità di influenzare ambienti fisici o virtuali. Questa caratteristica sottolinea che i sistemi di IA non sono passivi, ma hanno un impatto concreto sugli ambienti in cui operano. L’influenza può manifestarsi in contesti tangibili (come la robotica) o digitali (spazi virtuali e flussi di dati).
È importante notare che non è necessario che tutti e sette gli elementi siano sempre presenti contemporaneamente nel ciclo di vita del sistema. Un sistema di IA deve essere basato su macchina e avere la capacità di inferire per rientrare nella definizione dell’AI Act.
La definizione di AI Act, non si applica a sistemi che eseguono operazioni seguendo regole definite da persone, a sistemi di base per l’elaborazione dati, a sistemi con euristiche classiche o a sistemi di previsione semplice.
3. Distinzione tra IA e software tradizionali
La principale distinzione tra i sistemi di intelligenza artificiale (IA) e i software tradizionali risiede nella loro capacità di inferenza. I sistemi di IA, a differenza dei software tradizionali, sono progettati per dedurre come generare output a partire dagli input che ricevono.
Questa capacità di inferenza è fondamentale e si basa su tecniche di IA come l’apprendimento automatico e gli approcci logico-simbolici. I software tradizionali, invece, seguono regole definite da persone per eseguire automaticamente operazioni, senza la capacità di apprendere o adattare il loro comportamento in modo autonomo. I sistemi di IA possono generare output come previsioni, contenuti, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali, dimostrando una maggiore complessità e adattabilità rispetto ai sistemi tradizionali.
Mentre i software tradizionali si limitano all’esecuzione di istruzioni predefinite, i sistemi di IA possono analizzare modelli complessi nei dati, imparare dalle esperienze e adattare il loro funzionamento, rendendoli adatti a compiti più sofisticati e dinamici.
Per esempio, un sistema di IA per la guida autonoma è in grado di fare previsioni in tempo reale in ambienti complessi e dinamici, adattando il comportamento del veicolo in base alle condizioni del traffico e all’ambiente circostante. Un software tradizionale, invece, si baserebbe su regole predefinite e non sarebbe in grado di gestire la variabilità e la complessità della guida autonoma in modo efficace.
Un altro esempio è un sistema di raccomandazione di prodotti che usa tecniche di IA per personalizzare le offerte in base al comportamento dell’utente, mentre un software tradizionale si limiterebbe a mostrare prodotti in base a criteri fissi, come per esempio quelli più venduti.
Ancora, un sistema di IA di diagnosi medica potrebbe analizzare immagini e dati clinici per suggerire possibili diagnosi, imparando dai casi precedenti, mentre un software tradizionale si limiterebbe a fornire delle statistiche o dei risultati precalcolati senza capacità di apprendimento e adattamento.
In sintesi, la differenza chiave sta nella capacità di inferenza e adattabilità dei sistemi di IA, che li rendono più potenti e versatili rispetto ai software tradizionali, che si limitano a eseguire istruzioni preprogrammate.
4. Conclusioni
Le linee guida in commento rappresentano un aiuto concreto per districarsi in una narrativa che tende a considerare sistemi di IA anche quelli applicati a macchine di uso domestico che nulla hanno a che vedere con sistemi complessi come quelli sopra descritti.
Ne discende che una definizione chiara di cosa costituisca un sistema di IA è fondamentale per applicare correttamente la normativa e proteggere i consumatori dai rischi tecnologici. In un mondo digitale sempre più complesso, la comprensione dell’IA è essenziale per garantire un orientamento etico e legale.
Le linee guida dell’UE forniscono un supporto cruciale per interpretare e applicare la definizione di “sistema di IA”, garantendo che l’AI Act sia efficace e che i benefici dell’intelligenza artificiale siano sfruttati in modo responsabile e sicuro.
L’AI Act adotta un approccio basato sul rischio, il che significa che solo i sistemi che presentano i rischi più significativi sono soggetti a proibizioni o requisiti normativi. La vasta maggioranza dei sistemi, anche se qualificati come IA alla luce delle Linee guida in commento, non saranno soggetti a regolamentazione.