Privacy

Assistenti vocali virtuali, in Europa maggiori tutele per i dati personali

Dopo le norme sui veicoli connessi, il Comitato dei Garanti europei per la data protection ha adottato le linee guida per i software dei dispositivi connessi con funzioni di ascolto in attesa di comandi

Pubblicato il 15 Apr 2021

assistenti vocali virtuali

Le recentissime linee guida 2/2021 dell’European Data Protection Board (EDPB) sugli assistenti vocali virtuali (VVA – Virtual Voice Assistants) compongono un ulteriore tassello di approfondimento dei Garanti europei nella serie IoT. Va in proposito ricordato il precedente lavoro 1/2020 sui veicoli connessi.

Un’ovvia premessa: le linee guida in commento non riguardano, se non in maniera assolutamente marginale, l’hardware su cui gli assistenti virtuali sono installati, i quali possono ben prescindere da un dispositivo dedicato. Non dobbiamo cioè limitarci all’associazione mentale più immediata, quella tra altoparlanti intelligenti, smart speaker, e assistenti virtuali, ma considerare questi ultimi in un contesto tecnologico ben più ampio che comprende strumenti a funzionalità promiscua come smartphone, personal computer o smart TV, che divengono in tal modo dispositivi in costante ascolto. Tale ultimo scenario si prospetta anzi, proprio per la ragione indicata, come verosimilmente più insidioso in termini di aspettative di privacy dell’utente.

Più in generale, sulla piena consapevolezza dell’utente è lecito nutrire riserve, sia per l’integrazione liquida degli assistenti virtuali nell’esperienza quotidiana, sia in ragione di una certa rilevata opacità informativa (“who is hardly aware if the device is listening, and even less on the status in which it lies”).

Proprio la funzione di costante ascolto e la necessità di garantire adeguata trasparenza agli interessati, anche al fine di correggere la rilevata asimmetria informativa, costituiscono due delle principali direttrici delle linee guida.

assistenti vocali virtuali

Le applicazioni di data-protection-by-design e by-default

Gli assistenti vocali virtuali sono in effetti essenzialmente sistemi multistato, e ciò va tenuto ben presente quando si affronta il tema della trasparenza. Ossia, allo stato di base, consistente nell’ascolto continuo in attesa di comandi di sblocco, si aggiunge necessariamente, al verificarsi di determinate condizioni di attivazione, lo stato dell’interazione con un server remoto. Possono affiancarsi altri stati e dunque ulteriori contesti di trattamento, cfr. § 50 delle linee guida.

Orbene, il passaggio di fase dovrebbe essere palesato all’utente (o agli utenti, come si dirà tra poco), ad esempio attraverso un sistema di led, di icone o con modalità uditive o con combinazioni reciproche o altrimenti, tenuto conto anche di possibili inabilità fisiche dei fruitori.

Come si avverte già da queste prime considerazioni, uno spazio non secondario è necessariamente riservato nelle linee guida a profili di data-protection-by-design e by-default, ossia di miglioramento nella progettazione dei sistemi in chiave di protezione dei dati personali.

Citiamo altri esempi: i template vocali, ossia le impronte vocali elaborate sugli utenti registrati, andrebbero generate, archiviate e confrontate non da remoto ma esclusivamente in locale, in attuazione del principio di minimizzazione, art. 5, par. 1, lett. c) GDPR.

Per le stesse ragioni, andrebbero applicati di default filtri che limitino la registrazione di voci di sottofondo e altre informazioni di contesto.

Ugualmente, nel caso occorra identificare l’utente (si pensi all’accesso a un conto corrente bancario), l’EDPB non ritiene conforme un’analisi costante delle voci ambientali da parte dell’assistente virtuale al fine di individuare quella dell’utente abilitato, ma ritiene necessario un passaggio preliminare innescato da una parola chiave specifica (es. il comando “identification”). La necessità di minimizzazione è qui rafforzata dalla circostanza che viene in considerazione una tipologia di dato biometrico, qual è appunto la voce utilizzata a finalità di identificazione o di autenticazione.

I dati vocali come dati biometrici

Per ovvi motivi, dunque, le linee guida si pongono anche come occasione di approfondimento giuridico sui dati vocali. Va notato che qui il ragionamento dell’EDPB talvolta si intorbida, come al § 31 – vale la pena evidenziarlo –, ove leggiamo l’affermazione che i dati vocali sarebbero “inerentemente” biometrici.

Ovviamente non si può concordare, l’elemento decisivo della categoria in questione essendo la destinazione a uno scopo, ossia l’identificazione univoca, svolta attraverso un mezzo, cioè per via di un “trattamento tecnico”. Difficile dunque concepire concettualmente, almeno ad oggi, tipologie di dati personali che siano biometrici per natura e non in seguito a uno specifico utilizzo del titolare del trattamento. I dati vocali non sfuggono a queste considerazioni, potendo essere “comuni” oppure biometrici a seconda del trattamento a cui sono sottoposti. Ciò, del resto, appare chiaro da successivi passaggi delle linee guida, cfr. §§ 81 e 128.

assistenti vocali virtuali

LEA e dati inferiti

Un documento ampiamente costruito attorno all’analisi dei dati vocali tocca inevitabilmente anche due tematiche: quella del possibile accesso ai contenuti da parte di soggetti pubblici, per ragioni lato sensu di indagine, vale a dire la sempre assai delicata materia dell’ambito consentito alle LEA – Law Enforcement Agency (del resto alla base anche dei procedimenti Schrems); e quella, più nettamente privatistica ma altrettanto cruciale, dei dati inferiti.

I Garanti europei paventano, col conforto di casi di cronaca, interessi delle autorità pubbliche, anche intra UE (non va mai dimenticato il versante domestico), all’acquisizione delle tracce vocali raccolte dagli assistenti virtuali, che diventerebbero in tal modo veri e propri strumenti di intercettazione. Lo scenario ha risvolti allarmanti e ci ricorda alcune lucide e fortemente anticipatrici considerazioni di Stefano Rodotà sul corpo elettronico e i pericoli di una società pervasivamente controllata. L’EDPB parla in proposito di “chilling effect that would undermine fundamental rights like freedom of speech”, si tratta di parole di peso.

Tema funzionalmente connesso è quello dalla durata di conservazione delle registrazioni, in quanto idoneo a incidere sul perimetro di indagini retrospettive. La questione della data retention si pone del resto in termini più generali in materia di assistenti vocali virtuali, e non appare soddisfatta dalla mera messa a disposizione dell’utente di strumenti per la cancellazione, in quanto non sostitutivi di una politica di limitazione temporale della conservazione.

Quanto alle informazioni inferite, ossia estratte ad esito di attività di “mining” o comunque di analisi algoritmica sui dati vocali, esse non solo costituiscono a pieno titolo dati personali, ma dati personali a notevole incidenza nella sfera privata. Si pensi a informazioni rivelatrici dello stato emozionale del parlante, delle sue condizioni mentali, di difetti dell’eloquio, oppure a informazioni indicative del contesto o della situazione, dunque apportatrici di elementi conoscitivi ulteriori, non esplicitati nel comando vocale, la cui inclusione nel trattamento non è necessariamente attesa dall’interessato.

Si tratta per lo più di dati ultronei, che non possono essere trattati sulla base dell’interesse legittimo, ma necessitano della base del consenso, anche in applicazione dell’art. 5, par. 3 direttiva e-Privacy (2002/58), anche qualora costituiscano informazioni raccolte a mero fine di miglioramento/affinamento del servizio.

Proprio in merito alle basi giuridiche, se l’inquadramento appena esposto appare certamente condivisibile, chi scrive non sente di aderire invece appieno all’esclusione della base contrattuale, ossia dell’art. 6.1.b) GDPR, altresì operata dall’EDPB. Infatti, limitatamente a quelle informazioni inferite che servano esclusivamente a perfezionare il riconoscimento vocale del contraente, potrebbe ben essere colto un collegamento logico-giuridico con la corretta esecuzione da parte del fornitore del servizio della prestazione richiesta dallo stesso contraente.

Le difficoltà nel tracciare il perimetro

Una delle difficoltà con cui deve confrontarsi l’analisi giuridica in tema di assistenti virtuali sta nel considerare la ramificazione di rapporti derivanti dal numero ampio di attori coinvolti nel trattamento.

L’EDPB ricostruisce brevemente la filiera dei soggetti a vario titolo collocati in un ruolo attivo: dal fornitore dell’agente virtuale, allo sviluppatore, all’“integratore”, ossia colui che realizza oggetti IoT su cui è installato l’assistente, al titolare di spazi fisici che decida di dotarli di servizi di assistenti vocali virtuali. Si percepiscono già così intuitivamente profili spiccati di complessità.

Alcuni dei soggetti di questa filiera sono puramente accidentali, altri possono trovarsi in ruoli di trattamento non predeterminabili. Anche per questa ragione, le linee guida si limitano a presentare limitati scenari di esempio sull’allocazione del ruolo di titolare del trattamento.

Ulteriore articolazione, e quindi ulteriori variabili, è poi aggiunta dalla possibilità di avere una pluralità di utenti e altresì una pluralità di non utenti, di soggetti che cioè possono trovarsi, per ragioni di situazione o di contesto, nel ruolo di interessati loro malgrado. Anche in questo caso, il documento dell’EDPB si limita a brevi pennellate.

Conclusioni

È rimarchevole che i Garanti europei si siano determinati ad affrontare, in modo per molti aspetti pionieristico, un tema di stretta attualità, dunque di sicuro pregio, ma insieme impervio all’analisi. Per valutare appieno l’ambizione di questa scelta, è necessario un cambio di prospettiva: sarebbe infatti riduttivo considerare gli assistenti virtuali come uno dei tanti servizi della società dell’informazione, sono piuttosto strumenti di una radicale riorganizzazione delle relazioni umane e della comunicazione nel mondo digitale. Si pongono come intermediari dei più vari servizi e costituiscono, nelle applicazioni più spinte, un’interfaccia di interazione tra uomo e mondo del machine learning.

Per capire quanto siano profonde le radici dell’argomento e quanto estese le implicazioni, si può considerare che oggi sono riproposti, con la complessità di un fenomeno in piena esplosione, alcuni dei primi nuclei di riflessione giuridica apparsi già all’inizio di questo millennio sugli agenti software intelligenti, sui quali sia permesso allo scrivente ricordare di aver collaborato (cfr. es., G. Sartor & E. Pelino, Software Agents and the Law, 2002).

Di fronte a una tematica oggi così ricca, non sorprende che molti fili siano rimasti nelle linee guida in commento solo a livello di spunto. L’auspicio è che vengano raccolti e tessuti in ulteriori approfondimenti operativi, magari focalizzati su una casistica concreta, come è avvenuto per le linee guida n. 1/2021 in materia di personal data breach, seguite all’inquadramento di respiro più generale svolto in WP250 rev. 01.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati