IA nelle PMI e nelle professioni - parte 2

16.03.25 16:38

Formazione delle persone, responsabilità civile, sostenibilità. 
E poi il Manifesto dei bambini per il futuro dell'IA e qualche appunto di ritorno dall'AI Festival.

Nel primo articolo sull'IA nelle PMI e nelle professioni ti abbiamo lasciato qualche riflessione su: sistemi vietati, contratti, diritto d’autore, privacy.
In questo articolo continuiamo a parlarti delle implicazioni dell’uso di sistemi di Intelligenza Artificiale in azienda e nelle attività professionali.

Indice dei contenuti:

​Obbligo di formazione del personale e policy sull’uso dell’IA

Non si smette mai di imparare. E soprattutto, prima di iniziare a fare qualcosa, è bene sapere cosa si va a fare e come la si deve fare.

Così ha sicuramente pensato il legislatore europeo, che con l’art 4 dell’AI Act (nota 1) ha previsto che i fornitori e i deployer di sistemi di IA hanno l’obbligo di adottare “misure atte a garantire nella misura del possibile un livello sufficiente di alfabetizzazione in materia di IA del loro personale nonché di qualsiasi altra persona che si occupa del funzionamento e dell’utilizzo dei sistemi di IA per loro conto prendendo in considerazione le loro conoscenze tecniche, la loro esperienza, istruzione e formazione nonché il contesto in cui i sistemi di IA devono essere utilizzati” (nota 2).

L’obbligo di alfabetizzazione per fornitori e deployer si applica dal 2 febbraio 2025: è quindi tra le previsioni del Regolamento che sono già applicabili, insieme al divieto dei sistemi di IA a rischio inaccettabile.

Ma cosa si intende per alfabetizzazione? 
L’art. 3 (Definizioni), al paragrafo 1, n.56 dell’AI Act definisce l’“alfabetizzazione in materia di IA” come “le competenze, le conoscenze e la comprensione che consentono ai fornitori, ai deployer e alle persone interessate, tenendo conto dei loro rispettivi diritti e obblighi nel contesto del presente regolamento, di procedere a una diffusione informata dei sistemi di IA, nonché di acquisire consapevolezza in merito alle opportunità e ai rischi dell’IA e ai possibili danni che essa può causare”.

La formazione dovrà riguardare le conoscenze e le competenze che consentono alle persone di comprendere le opportunità, i rischi ma anche i danni che i sistemi di IA possono causare.

Naturalmente, l’alfabetizzazione dovrà essere specifica, perché dovrà tenere conto dei parametri indicati dalla norma, ossia “le loro (ndr dei destinatari della formazione) conoscenze tecniche, la loro esperienza, istruzione e formazione nonché il contesto in cui i sistemi di IA devono essere utilizzati”.

Per quanto riguarda i soggetti obbligati, il Regolamento fa riferimento ai:
  • fornitori o sviluppatori di sistemi di IA
  • deployer, ossia chi utilizza sistemi di IA nell’attività professionale (l’obbligo non vale per chi usa i sistemi di IA per scopi esclusivamente personali).
Dunque anche tu o la tua azienda nei confronti del personale potreste essere un deployer, e quindi potreste essere già obbligati a garantire l’alfabetizzazione, e magari ancora non lo sapevi.

Indipendentemente dal fatto che l’obbligo di alfabetizzazione del personale è previsto dall’AI Act, investire nella formazione è cruciale per usare l’IA in modo consapevole, strategico, responsabile, conoscendone limiti e rischi, consentendo alle persone di acquisire le capacità necessarie per il loro utilizzo.
Scopri i nostri percorsi di formazione

Le policy e linee guida per l’uso responsabile dell’IA nell’attività lavorativa possono essere un valido aiuto per un utilizzo consapevole dell’IA in azienda.

Le policy possono aiutare a ridurre i rischi legali, etici e pratici, garantendo l'uso dell'IA in modo conforme alle normative e in linea con i valori aziendali.

Potranno contenere, ad esempio, definizioni, individuazione dell’ambito di applicazione, richiami normativi, principi etici da rispettare, quali strumenti possono essere utilizzati e per quali scopi, regolamentare l’uso dei dati (personali e non) che possono essere introdotti nei sistemi di AI, la necessità di verificare correttezza e qualità dei risultati prodotti.

La Commissione europea ha anche avviato l’AI Pact (nota 3), un tavolo di lavoro a cui tutte le imprese possono aderire, per provare a chiarire aspetti dell’AI Act, suggerire semplificazioni e proporre best practice che potranno essere usate come modello e linee guida condivise per la compliance, soprattutto per le PMI.

​​​​Responsabilità civile
L’IA può automatizzare processi decisionali: ma chi è responsabile delle scelte? E chi è responsabile nel caso di errori o danni causati dall’uso di sistemi di IA? (nota 4) Chi è responsabile nel caso in cui l’IA genera una fake news o se un chatbot dà un consiglio sbagliato o pericoloso? Oppure se un’IA sbaglia una diagnosi medica o una previsione finanziaria, chi risponde?


Il tema è complesso perché ha a che fare con il bilanciamento tra lo sviluppo dell’IA e la tutela delle persone danneggiate, e l’AI Act non ci aiuta perché non disciplina questo aspetto.

Il tema non solo è complesso, ma è anche rilevante, perché la responsabilità civile serve a determinare chi deve risarcire un danno.

Case history


Sono già arrivati alla cronaca dei casi di errori rilevanti da parte dei sistemi di IA5, di cui magari hai già sentito parlare:

  • il caso di Air Canada, condannata a pagare i danni a un passeggero dopo che il suo chatbot-assistente virtuale aveva fornito al passeggero informazioni sbagliate sulle tariffe scontate in caso di lutto

  • il caso dell’avvocato americano Steven A. Schwartz, che nel 2023 aveva usato ChatGPT per trovare precedenti giurisprudenziali a sostegno di una sua causa, salvo poi scoprire che alcuni dei casi citati erano stati completamente inventati dall’IA

Anche a noi, e probabilmente anche a voi, è capitato di provare a interrogare un sistema di IA e ricevere risposte errate o molto imprecise che avrebbero potuto trarre in inganno una persona non esperta o del mestiere e causare magari anche dei danni importanti per decisioni basate su quelle risposte errate dell’IA.

Dunque di chi potrà essere la responsabilità in caso di danni causati dall’IA?

In primo luogo, si potrebbe immaginare una responsabilità del produttore del sistema se il danno è stato causato da un difetto del sistema, sulla base della normativa sulla responsabilità per prodotto difettoso (nota 6). In linea generale, infatti, finora “la dottrina non ha ravvisato ostacoli all’applicazione della responsabilità per danno da prodotti difettosi ai sistemi di intelligenza artificiale self-learning” (nota 7). O del fornitore, se diverso dal produttore.

Poi c’è la posizione dell’utente che potrebbe essere responsabile, ad esempio, se non ha rispettato le istruzioni d’uso.

C’è poi il terzo aspetto dell’eventuale responsabilità da parte dell’algoritmo (può essere un’entità indipendente? O si deve risalire a chi lo ha prodotto?).

Essendo sorti vari dubbi sulla idoneità dell’attuale normativa a regolare la responsabilità dell’IA, in particolare sulla responsabilità per prodotto difettoso, l’UE si sta muovendo. La Commissione UE ha approvato il 28.9.2022 una proposta di direttiva sulla responsabilità da IA (nota 8), che introduce per la prima volta norme specifiche per i danni causati dai sistemi di IA (nota 9).


Lo scopo è facilitare il risarcimento del danno a coloro che abbiano subìto danni derivanti dall’impiego di sistemi di IA dando maggiore uniformità alla disciplina e promuovere l’innovazione responsabile.

Il quadro è incerto, vedremo cosa accadrà nel prossimo futuro.

In questa lacuna, al momento pare ancora più importante che i rapporti commerciali che hanno a che fare con sistemi di IA siano regolati da adeguati contratti che contengano anche norme che regolino con chiarezza le rispettive responsabilità.
​Sostenibilità e IA: un’opportunità per il futuro?

L’AI può contribuire agli obiettivi di sostenibilità delle aziende? O può esserne un ostacolo? Il tema è di grande interesse.
L’intelligenza artificiale può essere un fattore a supporto degli obiettivi ESG delle imprese sotto vari profili:

  • può favorire l’automazione dei processi decisionali, consentendo così a sua volta di monitorare e gestire meglio i parametri ESG
  • permette di gestire numeri elevati di dati e variabili in un tempo ridotto e con maggiore precisione
  • può creare maggiore efficienza nei processi e nelle attività quotidiane
  • consente di analizzare, comprendere e gestire meglio i rischi aziendali, magari anche non identificabili con i metodi tradizionali, supportando le persone nelle decisioni.


Non solo opportunità, purtroppo, ma anche rischi da monitorare con attenzione: abbiamo già detto in questo articolo della protezione dei dati personali, del pericolo di hackeraggio e di possibili crimini informatici, ma va anche ricordato del rischio della perdita di controllo umano, di scelte discriminatorie, del consumo energetico, di un aumento delle diseguaglianze. E poi forse il rischio e la paura più grande per tante persone: il tema legato alla perdita di posti di lavoro.

Sarà questione di equilibrio e sarà necessario che lo sviluppo dell’IA sia accompagnato e garantito da una seria attenzione ai temi etici e alla tutela dei diritti umani fondamentali.

Prenota una call conoscitiva e capiamo come possiamo aiutarti
​Note:

1 - Regolamento UE 2024/1689, entrato in vigore il 1.8.2024. Si applicherà dal 2.8.2026, ad eccezione di alcune previsioni (es. dal 2.2.2025 sono già sanzionabili i divieti dei sistemi a rischio inaccettabile, di cui ti abbiamo parlato a febbraio e gli obblighi di formazione di cui parliamo qui).
2 - Il Considerando 20 a sua volta sottolinea come, al fine di massimizzare i benefici connessi all’uso dei sistemi di IA (a salvaguardia di tutti i diritti fondamentali della persona), occorra una vasta campagna di alfabetizzazione.
3 - Informazioni sul Patto sull'IA a questo link
4 - “Si staglia poi sullo sfondo di ogni possibile applicazione dell’intelligenza artificiale il problema trasversale delle tecniche di risarcimento dei danni cagionati dalle macchine “intelligenti” e di come debbano essere ripartiti i rischi e i costi della loro progettazione, della loro produzione e della loro utilizzazione“. Da AI ACT. Principi, regole ed applicazioni pratiche del Reg.UE 1689/2024, a cura di Michele Iaselli, Maggioli editore, 2024, pag.146.
5 - A questo link trovi un articolo interessante su 10 casi famosi di errori di sistemi di IA
6 - Contenuta della Direttiva 85/374/CEE, attuata in Italia con il D.P.R. n. 224/1988, poi confluito nell’attuale Codice del Consumo (D.lgs. 206/2005)
7 - Sempre dal manuale AI ACT. Principi, regole ed applicazioni pratiche del Reg.UE 1689/2024, sopra citato
8 - AI Liability Directive, al link
9 - Domande e risposte: direttiva sulla responsabilità da intelligenza artificiale, a questo link