News

Intelligenza Artificiale e Brevetti: guida alla brevettabilità dell’IA secondo le norme europee

Scritto da Andrea Perronace | 8-apr-2025 5.00.00

L’evoluzione dell’Intelligenza Artificiale (IA) sta ridefinendo il panorama dell’innovazione tecnologica, imponendo nuove sfide anche sul piano della tutela brevettuale. In questo contesto, diventa fondamentale comprendere quali siano le condizioni per una protezione efficace delle invenzioni basate sull’IA, sia in termini di requisiti legali, sia in relazione ai nuovi scenari normativi, come il regolamento europeo sull’IA (Regolamento UE 2024/1689).

Requisiti di base per la concessione di un brevetto

Per essere brevettabile, un'invenzione deve soddisfare i requisiti di eleggibilità e brevettabilità. L’eleggibilità esclude a priori ciò che è considerato attività mentale o astratta (es. metodi matematici, teorie scientifiche, metodi commerciali, giochi). La brevettabilità richiede invece novità assoluta e non ovvietà rispetto allo stato della tecnica.

Nel caso dell’Intelligenza Artificiale, la sfida si colloca al confine tra ciò che è meramente astratto (algoritmo matematico) e ciò che assume un carattere tecnico, ovvero un insegnamento concreto destinato a risolvere un problema tecnico tramite mezzi tecnici.

Il concetto di "tecnico" secondo l’Ufficio Brevetti Europeo

Un’invenzione, per essere brevettabile, deve avere carattere tecnico, ovvero un insegnamento tecnico, che è un’istruzione indirizzata a una persona esperta su come risolvere un particolare problema tecnico (piuttosto che, ad esempio un problema puramente finanziario, commerciale, matematico o astratto) utilizzando particolari mezzi tecnici

La parola “tecnico”, tuttavia, “non è definibile” (come chiarito dalla decisione G 3/08 dell’Ufficio Europeo dei Brevetti, UEB, generalmente seguita anche in Italia).

È il caso, ad esempio, di sistemi che controllano apparecchi a raggi X, ottimizzano la distribuzione del carico su una rete informatica, riducono il rumore in un’immagine, comprimono dati multimediali o implementano tecniche di crittografia.

Nel valutare l’eleggibilità dei metodi di IA, si applicano gli stessi criteri definiti per le invenzioni implementate da computer (si vedano a proposito le Linee Guida UEB, G-II 3.3): nel valutare il contributo apportato da un metodo matematico al carattere tecnico di un'invenzione, si deve tener conto se il metodo, nel contesto dell'invenzione, produce un effetto tecnico che serve a uno scopo tecnico.

In generale, un software può essere considerato eleggibile se:

  • genera direttamente un effetto tecnico (es. controllo ABS, compressione video);
  • gestisce risorse informatiche (es. memoria o carico di CPU), acquisendo in tal modo carattere tecnico;
  • è progettato sulla base di considerazioni tecniche specifiche (es. algoritmi adattati all’architettura hardware).

Quando l’IA è eleggibile e quando anche brevettabile

L’Intelligenza Artificiale è quindi eleggibile non in quanto algoritmo, ma quando trova applicazione in un contesto tecnico, come:

  • controllo di un sistema o processo tecnico, come un apparecchio a raggi X o uno strumento meccanico;
  • generazione o miglioramento digitale di audio, immagini o video (ad esempio riduzione del rumore, rilevamento di persone in immagini digitali, riconoscimento vocale, riconoscimento facciale, generazione di suoni iperrealistici);
  • codifica/decodifica/compressione di dati per una trasmissione o archiviazione affidabile e/o efficiente/sicura.

Tuttavia, non è sufficiente avere un computer per rendere brevettabile l’IA (metodo), perché l’IA è in sé un algoritmo matematico. Un generico computer può rendere l’IA eleggibile in Europa ed in Italia, ma in tal caso difficilmente avrebbe novità e attività inventiva, in quanto il generico computer è noto a tutti. 

La brevettabilità è invece presente quando le caratteristiche tecniche che forniscono l’eleggibilità sono anche le caratteristiche che differenziano l’invenzione rispetto allo stato della tecnica (tutto ciò che è pubblicato prima di una domanda di brevetto avente ad oggetto una applicazione di IA).

Tali caratteristiche, tuttavia, non devono meramente differenziare l’invenzione da quanto noto (criterio della novità), ma devono costituire un passo in avanti della tecnologia che non era facilmente pensabile sulla base di quanto noto (criterio della non ovvietà).

È utile a tale scopo vedere un esempio concreto di una invenzione di IA per la quale è stato concesso un brevetto dall’UEB. 

Si tratta del brevetto EP3989126 B1, relativo a una Rete Neurale Convoluzionale (Deep Learning), per l’identificazione e la quantificazione automatica di radioisotopi in spettri gamma, che hanno importanti risvolti nella diagnostica per immagini e nella radioterapia. Questo caso dimostra come la definizione dettagliata di:

  • input e output,
  • architettura della rete neurale,
  • dati di addestramento e funzioni di costo, 

possa costituire una solida base per la brevettazione. In particolare, è risultata vincente la struttura della rete neurale, raffigurata schematicamente in una figura di brevetto come segue:

In questo caso, applicando i concetti sopra illustrati, si ha: 

  • Scopo tecnico: identificazione e quantificazione automatica di radioisotopi in spettri gamma (IA applicata);
  • Algoritmo utilizzato: Rete Neurale Convoluzionale (Deep Learning);
  • Input: immagini di spettri gamma e un numero predeterminato N di radioisotopi identificabili in ciascuna delle suddette immagini di spettri gamma;
  • Output: dato di classificazione per ciascuno di un numero predeterminato N di radioisotopi identificabili nella suddetta immagine di spettro gamma.

Poiché l’invenzione risolve il problema tecnico dell’identificazione di radioisotopi in radiazioni reali (quindi non un concetto astratto), e la tecnica nota emersa dall’esame a livello UEB non ha evidenziato la presenza (novità) o suggerimenti (non ovvietà) sugli elementi brevettuali della lista qui sopra, l’invenzione è stata premiata con la concessione del relativo brevetto.

Altri esempi di invenzioni eleggibili e brevettabili includono:

  • Un metodo per progettare un sistema ottico, per determinare i suoi parametri per prestazioni ottimali
  • Fornire una stima del genotipo basata su un'analisi di campioni di DNA e fornire un intervallo di confidenza per questa stima per quantificarne l'affidabilità
  • Fornire un elemento quantitativo utile per la diagnosi medica utilizzando un sistema automatizzato per l'elaborazione di misurazioni fisiologiche
  • Derivare la temperatura corporea di un soggetto dai dati ottenuti da un rilevatore di temperatura auricolare

Il ruolo del regolamento europeo sull’IA (EU AI Act)

Il nuovo EU AI Act introduce un approccio alla regolamentazione basato sul rischio, classificando le applicazioni di IA in quattro categorie:

  • Rischio inaccettabile: si tratta di ambiti proibiti, quali: Manipolazione subliminale, Sfruttamento delle vulnerabilità delle persone con conseguente comportamento dannoso, Categorizzazione biometrica delle persone in base a caratteristiche sensibili, Punteggio sociale a scopo generale, Identificazione biometrica remota in tempo reale (in spazi pubblici), Valutazione dello stato emotivo di una persona, Polizia predittiva, Scraping di immagini facciali.
  • Alto rischio: occorre una Valutazione di Conformità per applicazioni in ambiti sensibili, cioè applicazioni di IA che potrebbero avere un impatto negativo sulla salute e la sicurezza delle persone, sui loro diritti fondamentali o sull'ambiente; Sistemi di IA relativi ai componenti di sicurezza di prodotti regolamentati, ovvero applicazioni di IA integrate in dispositivi medici, ascensori, veicoli o macchinari; Applicazione della legge (come la valutazione dell'affidabilità delle prove o l'analisi dei reati), gestione delle migrazioni, dell'asilo e del controllo delle frontiere. 
  • Rischio limitato: vi è l’obbligo di trasparenza per sistemi come deepfake, sistemi di riconoscimento delle emozioni, chatbots, dove l’utente deve sapere che non sta interagendo con un umano;
  • Rischio minimo: in questa categoria, in cui rientrano ad esempio filtri antispam, videogiochi e altre applicazioni di intrattenimento, non vi sono obblighi, ma è consigliata l’aderenza a principi di condotta responsabile.

Su questi temi l’UEB non ha ancora preso posizione. Per i titolari di brevetti e le imprese innovative, è allora consigliabile:

  • escludere dal brevetto eventuali elementi ed applicazioni rientranti in ambiti proibiti o ad alto rischio;
  • valutare la possibilità di attendere chiarimenti su come l’AI Act sarà integrato nel diritto brevettuale;
  • condurre valutazioni d’impatto sui diritti fondamentali (FRIA), volte a mitigare i possibili danni dei sistemi di IA ad alto rischio in relazione ai diritti fondamentali degli individui. 

Conclusioni

La protezione brevettuale dell’IA segue gli stessi principi della brevettazione di una applicazione software, con l’aggiunta dei dettagli specifici dell’IA (strati, input, output, training, performance).

L’Intelligenza Artificiale è proteggibile tramite brevetto quando è relativa ad una sua applicazione tecnica, che sia hardware o software e non all’algoritmo in sé.

Alla luce delle normative esistenti (UEB) e di quelle emergenti come l’AI Act, è essenziale che le imprese e i professionisti del settore svolgano un’analisi approfondita della propria invenzione, sia sotto il profilo giurisprudenziale sia sotto quello di compliance, per garantire la sua eleggibilità e la conformità del relativo prodotto.

Leggi anche l'articolo di approfondimento sulla "Tutela del Software".