Home
Categories
EXPLORE
Music
Education
Technology
History
Science
News
Society & Culture
About Us
Contact Us
Copyright
© 2024 PodJoint
00:00 / 00:00
Sign in

or

Don't have an account?
Sign up
Forgot password
https://is1-ssl.mzstatic.com/image/thumb/Podcasts116/v4/60/9c/5e/609c5ea7-ae70-7c46-a4f7-6ead578fcab0/mza_10841556518211441020.jpg/600x600bb.jpg
Good morning privacy!
Guido Scorza
147 episodes
2 weeks ago
Viviamo nella società dei dati, la nostra vita, in tutte le sue dimensioni è sempre più influenzata dai nostri dati personali, da chi li utilizza, da cosa ci fa, da dove e quanto li conserva.
Senza dire che anche gli algoritmi ne sono straordinamente golosi, direi voraci.
Ecco perché dedicare tre minuti al giorno alla privacy potrebbe essere una buona idea, il tempo di un caffè veloce, un buongiorno e niente di più, per ascoltare una notizia, un'idea, un'opinione o, magari, per sentirti cheiedere cosa ne pensi di qualcosa che sta accadendo a proposito di privacy e dintorni.
Non una rubrica per addetti ai lavori, ma per tutti, un esercizio per provare a rendere un diritto popolare, di tutti e per tutti, centrale come merita nella nostra esistenza.
Show more...
News
RSS
All content for Good morning privacy! is the property of Guido Scorza and is served directly from their servers with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
Viviamo nella società dei dati, la nostra vita, in tutte le sue dimensioni è sempre più influenzata dai nostri dati personali, da chi li utilizza, da cosa ci fa, da dove e quanto li conserva.
Senza dire che anche gli algoritmi ne sono straordinamente golosi, direi voraci.
Ecco perché dedicare tre minuti al giorno alla privacy potrebbe essere una buona idea, il tempo di un caffè veloce, un buongiorno e niente di più, per ascoltare una notizia, un'idea, un'opinione o, magari, per sentirti cheiedere cosa ne pensi di qualcosa che sta accadendo a proposito di privacy e dintorni.
Non una rubrica per addetti ai lavori, ma per tutti, un esercizio per provare a rendere un diritto popolare, di tutti e per tutti, centrale come merita nella nostra esistenza.
Show more...
News
Episodes (20/147)
Good morning privacy!
L’inchiesta di Report: tanto tuonò che piovve
Negli ultimi giorni, a seguito dell’inchiesta di Report, si è concentrata su di me una significativa attenzione mediatica. Ritengo quindi necessario chiarire, in modo trasparente e completo, i punti che mi riguardano. Le questioni sollevate sono due: i rapporti con lo Studio che ho fondato quindici anni fa e l’ipotesi di un mio ruolo improprio nel procedimento sui Ray-Ban Stories. Sul primo punto, quando sono stato eletto al Garante ho esercitato il recesso dall’associazione professionale, interrompendo ogni rapporto giuridico ed economico con lo Studio. Da allora ho mantenuto una netta separazione, astenendomi in tutti i casi nei quali lo Studio risultasse coinvolto. In cinque anni e mezzo, su oltre 2.600 provvedimenti del Collegio, i casi in cui è emerso un potenziale conflitto sono stati dieci e, ogni volta che ne sono venuto a conoscenza, mi sono astenuto. Report ha citato due episodi per sostenere l’idea di un conflitto sistemico. Nel caso della ASL di Avezzano, io mi sono effettivamente astenuto: è tutto documentato nei verbali, anche se in una seduta un’omissione materiale ha fatto venir meno la registrazione dell’astensione. Lo avevo chiarito anche dopo l’intervista, fornendo i verbali stessi. Inoltre, la decisione finale del Collegio è stata presa all’unanimità, quindi il mio voto non avrebbe comunque modificato l’esito. Nel caso ITA Airways, invece, lo Studio non difendeva la società nel procedimento in questione. Un avvocato che nel tempo è entrato nello Studio era, all’epoca, DPO della società, ma questo non risultava dagli atti e non avevo modo di saperlo. Anche in questo caso la decisione finale è stata unanime e in linea con la proposta degli uffici, trattandosi di una violazione minore. Sulla vicenda dei Ray-Ban Stories, Report sostiene che avrei “promosso” il prodotto durante l’istruttoria. In realtà, nel 2021 commentai pubblicamente l’arrivo degli occhiali sul mercato come tema culturale, non giuridico, e due anni dopo, quando il Garante avviò l’istruttoria, mi sono astenuto dal procedimento proprio per opportunità. Non intendo intraprendere azioni legali contro Report. Preferisco continuare a spiegare i fatti, rendere disponibili documenti e rispondere a chi voglia comprendere nel merito.
Credo che la trasparenza sia la risposta più solida all’allusione e all’imprecisione.

Show more...
2 weeks ago
14 minutes

Good morning privacy!
Vi dico la mia sulla storia raccontata da Il Fatto Quotidiano questa mattina 
Oggi Il Fatto Quotidiano mi dedica un articolo con alcune anticipazioni della seconda puntata, che andrà in onda domani sera, dell’inchiesta che Report sta conducendo sul Garante per la protezione dei dati personali.Sono, da sempre, convinto che quando fanno questo genere di inchieste, i media fanno il loro dovere e rendono uno straordinario servizio alla nostra democrazia.Guai se non lo facessero e guai se chiunque, specie da rappresentante di un’Istituzione, provasse a ostacolarli o a non collaborare.È la ragione per la quale quando prima Report e poi Il Fatto Quotidiano mi hanno chiesto un’intervista ho immediatamente accettato, ci ho messo la faccia, ho risposto a tutte le domande che mi sono state poste.Certo la condizione di quanto precede è che l’inchiesta, pur, eventualmente, muovendo da una tesi, non abbia pregiudizi, conclusioni precostituite, epiloghi già scritti ma sia ispirata dalla voglia di capire, raccontare e far capire, i fatti e la verità o quanto di più prossimo a quest’ultima esiste in natura.Guarderò Report ma, per ora, a leggere il Fatto non mi pare questo il caso e me ne rammarico anche perché Il Fatto Quotidiano è uno dei giornali sul quale, per pura e semplice passione civile e amor di giornalismo, avevo aperto, tra i primi, un blog quando muoveva i primi passi e conosco, da tempo, correttezza, competenza e penna di Thomas Mackinson, l’autore del pezzo.In realtà a dispetto del titolo e del catenaccio, grandi e sensazionalistici, come quelli che si usavano un secolo fa, sui “giornali gialli” americani, quelli che allora servivano a farli vendere agli angoli delle strade, poi il pezzo dice poco di me e dei miei rapporti con lo Studio Legale che ho fondato quindici anni fa e lasciato oltre cinque anni fa, quando sono stato eletto al Garante.I fatti sono soltanto due: mia moglie lavora ancora in quello Studio e quello Studio segue dei clienti davanti al Garante per la protezione dei dati personali.Personalmente né il primo, né il secondo mi sembrano degli scoop, delle grandi notizie, delle verità capaci di nasconderne chissà quali altre.E, però, entrambi vengono suggestivamente raccontati come “pistola fumante” di chissà quale torbida storia di malaffare o di intrecci tra interessi pubblici e privati.“Il caso tocca un nervo scoperto del Garante non tanto sul fronte politico quanto sul rischio di permeabilità rispetto a interessi commerciali”, scrive Mackinson.Un’affermazione grave, seria, preoccupante e allarmante, se fosse vera o, anche, semplicemente supportata da un qualche elemento fattuale.È uno di quei casi nei quali l’epilogo dell’inchiesta giornalistica sembra scritto prima ancora di condurla.Ma andiamo con ordine, cercando di rimanere ai fatti.L’attacco del pezzo – come si dice in gergo – è relativo a un procedimento che sarebbe stato promosso davanti al Garante per la protezione dei dati personali da duemila ex dipendenti Alitalia a tutela della loro privacy, una tutela che suggerisce il pezzo, “avrebbe dato loro una chance in più di non finire per strada”, ovvero, immagino, essere licenziati.Il reclamo introduttivo del procedimento sarebbe stato firmato da tal Antonio Amoroso ex Alitalia e oggi segretario di Cub Trasporti.Uso il condizionale perché come spiegato al giornalista quanto me lo ha chiesto, di questoprocedimento non so nulla e nulla posso sapere essendo ancora in fase istruttoria davanti agli uffici del Garante che, come esigono le regole, gestiscono l’istruttoria in assoluta autonomia anche e, soprattutto, dal Collegio.La tesi, tuttavia, è che il Garante non sarebbe intervenuto tempestivamente con la conseguenza che i dipendenti sarebbero stati licenziati.Qui un paio di precisazioni sono indispensabili.La prima è che il Garante non è un Giudice del lavoro che giudica della legittimità o illegittimità dei licenziamenti e che il Giudice del lavoro che, verosimilmente, è stato interessato della questione avrebbe, certamente, se rilevante, potuto accertare incidentalmente...
Show more...
2 weeks ago
10 minutes

Good morning privacy!
Un milione di persone ogni settimana parla di suicidio con ChatGPT
Un milione di persone ogni settimana parla di suicidio e altri comportamenti autolesionistici mentre usa ChatGPT.
Lo ha reso noto la stessa società che gestisce il servizio di AI generativa più popolare del mondo lo scorso 27 ottobre insieme a una serie di altri dati su altri generi di conversazione, ovviamente meno preoccupanti ma non certo rassicuranti.
La sigla e ne parliamo.

[SIGLA]

È una classica situazione da bicchiere mezzo vuoto o mezzo pieno a seconda i punti di vista o, considerata l’ora, da tazzina di caffè con un caffè troppo corto o corto quasi al punto giusto.
Stiamo parlando dei dati che OpenAI ha pubblicato nei giorni scorsi, dati che essenzialmente, dicono due cose: che le conversazioni su ChatGPT restano in un numero rilevante di casi pericolose ma che sono sensibilmente meno pericolose che in passato perché la società si sta impegnando a affrontare e gestire questo genere di problemi.
Alcuni numeri, però, mettono i brividi.
Il primo è appunto quello di quel milione di persone in soli sette giorni che manifesterebbe propositi o intenzioni suicida o autolesioniste mentre usa ChatGPT.
Oggettivamente tante, anzi tantissime se si considera l’oggetto delle conversazioni e se si tiene conto della facilità con la quale, talvolta, si passa dalle parole ai fatti come hanno raccontato alcuni drammatici episodi.
Gli altri numeri, pure importanti, naturalmente, appaiono meno gravi.
Quello, analogo, degli utenti che manifestano "livelli elevati di attaccamento emotivo a ChatGPT" e quello da centinaia di migliaia di persone che mostrano segni di psicosi o mania nelle loro conversazioni settimanali.
Tutti fenomeni gravi e preoccupanti.
Ma, per chi voglia guardare la tazzina di caffè piena al punto giusto, tutti numeri inferiori a quelli di qualche mese fa e, naturalmente, di quelli che si sarebbero registrati, se fossero stati misurati con le stesse metriche, al momento del debutto.
OpenAI, insomma, e i numeri appena pubblicati in un’operazione di trasparenza comunque apprezzabile lo confermano, sta lavorando per contenere questo genere di fenomeni.
Tanto per fare un esempio, i dati suggeriscono che il nuovo modello GPT-5 ha ridotto le risposte indesiderate, nel caso di utenti che manifestano propositi suicida o autolesionisti, del 52% rispetto al GPT-4°.
Bene, naturalmente.
Difficile dire se anche benissimo, non conoscendo il numero delle risposte indesiderate che ChatGPT continua a dare agli utenti che usandolo parlano di suicidio.
E però la domanda da porsi probabilmente è un’altra e, bene dirlo subito, non riguarda solo ChatGPT e OpenAI ma l’intero universo dei chatbot.
Milioni di persone ogni settimana, conversando solo con ChatGPT evidenziano propositi suicida e autolesionisti, mostrano livelli elevati di attaccamento emotivo a ChatGPT e segni di psicosi o mania.
E se questa è la situazione in casa OpenAI è verosimile che non sia diversa quella che va in scena sulle pagine degli altri fornitori di servizi analoghi.
Uno scenario oggettivamente pericoloso con rischi, probabilmente, da considerarsi elevati se non in termini assoluti, in relazione alla natura degli interessi in gioco.
La domanda con la quale salutarci questa mattina, quindi, a me pare debba essere: siamo certi che servizi del genere possano essere distribuiti liberamente fuori da ogni regola che identifichi gli standard oltre i quali il rischio deve considerarsi insostenibile e imponga guardrails precisi a tutela degli utenti, a cominciare dai più giovani.
Personalmente non credo si possa andare avanti così, utilizzando il mercato come se si trattasse di un laboratorio nel quale sperimentare le proprie soluzioni e le persone come cavie.
Ma parliamone.

Buona giornata e, naturalmente, goodmorningprivacy!
Show more...
3 weeks ago
3 minutes

Good morning privacy!
Presidente, non provare a dividerci con la mia musica
"Si tratta di un utilizzo non autorizzato della mia interpretazione di 'Danger Zone'. Nessuno mi ha chiesto il permesso, che avrei negato, e chiedo che la mia registrazione su questo video venga rimossa immediatamente."
Ferma, decisa e determinata.
È la richiesta che Kenny Loggins ha inviato alla Casa Bianca dopo che Trump aveva utilizzato la sua musica come colonna sonora del video, generato con l’intelligenza artificiale, in risposta alla protesta No Kings che ha riempito sabato scorso le piazze americane.
Prima la sigla e poi ne parliamo davanti al solito caffè.

[SIGLA]

Il video ha fatto il giro del mondo suscitando reazioni diverse dal divertimento all’ironia, passando per la critica e lo stupore.
Donald Trump, Presidente degli Stati Uniti d’America, alla guida di un aereo da combattimento di quelli protagonisti di Top Gun, celeberrimo film con Tom Cruise che scarica tonnellate di una sostanza marrone facilmente identificabile sui manifestanti che invocano rispetto per la libertà e la democrazia.
La colonna sonora del video era Danger Zone, già colonna sonora proprio di Top Gun, interpretata da Kenny Loggins.
Ma una cosa è la propria musica che fa da colonna sonora a un film campione di incassi e una cosa completamente diversa è se finisce, complice anche l’intelligenza artificiale, a fare da colonna sonora a un video nel quale il tuo Presidente, alla cloche di un jet da guerra ricopre di escrementi i suoi oppositori.
"Non riesco a immaginare perché qualcuno dovrebbe volere che la propria musica venga usata o associata a qualcosa creato con il solo scopo di dividerci. Troppe persone stanno cercando di separarci e dobbiamo trovare nuovi modi per unirci. Siamo tutti americani e siamo tutti patriottici. Non esiste un 'noi e loro': non è quello che siamo, né quello che dovremmo essere. Siamo tutti noi. Siamo tutti sulla stessa barca e spero che possiamo abbracciare la musica come un modo per celebrare e unire ognuno di noi".
Sono le parole con le quali il cantautore americano ha pubblicamente spiegato la sua decisione di richiedere l’immediata rimozione della sua musica dal video pubblicato dalla Casa Bianca.
Difficile non condividerle.
Difficile non essere d’accordo.
È, d’altra parte, quello che da questa parte dell’oceano chiamiamo diritto morale d’autore.
L’autore e solo l’autore può decidere chi può fare cosa con la propria musica.
È un fatto, innanzitutto, di identità personale, specie quando l’utilizzo dell’altrui musica può dare a pensare che l’associazione sia figlia di una condivisione da parte dell’autore del contenuto al quale è associata.
Eppure, specie da quando la generazione di contenuti multimediali artificiali impazza il fenomeno dell’associazione di musica a questo o quel contenuto, un’associazione, normalmente, priva di qualsiasi preventiva autorizzazione.
E non è tanto e soltanto una questione di soldi, di diritti pagati o non pagati, di licenze.
Ma anche e soprattutto, proprio come la storia di Kenny Loggins e del video di Trump suggerisce una questione di principio, di ideali, di identità personale, di messaggi che non si condividono e ai quali non si vuole essere associati.
Una questione, spesso, sin qui, sottovalutata, anzi, di frequente dimenticata.
C’è da augurarsi che l’inciampo della Casa Bianca e la pronta e bella reazione di Loggins, valgano a sollevare il problema e a correre ai ripari.
E, naturalmente, quello che vale per la musica, vale anche e a maggior ragione per l’immagine di chicchessia che non dovrebbe poter essere utilizzata per generare qualsivoglia tipo di contenuto che veicoli messaggi, battute e dichiarazioni nei quali il titolare dell’immagine non si riconosce, che non gli appartengono, ai quali semplicemente non vuole essere associato.
Ne parlavo proprio nell’episodio di ieri a proposito della decisione di OpenAI di bloccare l’utilizzo dell’immagine di...
Show more...
1 month ago
4 minutes

Good morning privacy!
I personaggi famosi fuori da Sora su richiesta. E gli altri?
In un post sul suo account ufficiale su X OpenAI ha reso noto di aver sospeso la generazione di immagini di Martin Luther King a seguito della richiesta della figlia, Berenice e di aver intenzione di garantire lo stesso trattamento a tutti gli altri personaggi storici e pubblici che chiedessero o nel cui interesse venissero avanzate analoghe richieste.
Bene, almeno in un contesto nel quale ci stiamo abituando a festeggiare anche l’ovvio.
E, però, forse la questione è un po’ più complicata di così.
La sigla e ne parliamo.

[SIGLA]

“Sebbene vi siano forti interessi in materia di libertà di parola nella rappresentazione di personaggi storici, OpenAI ritiene che i personaggi pubblici e le loro famiglie debbano in ultima analisi avere il controllo su come la loro immagine viene utilizzata. I rappresentanti autorizzati o i titolari dei diritti possono richiedere che la loro immagine non venga utilizzata nei video di Sora”.
Dice così la società che ha progettato, sviluppato e gestisce SORA, il servizio di generazione di video artificiali già utilizzato da milioni di persone in tutto il mondo per abbattere definitivamente il già scolorito confine tra il vero e il falso, producendo centinaia di milioni di contenuti audiovisivi nei quali personaggi noti e illustri sconosciuti, storici e non storici diventano protagonisti di episodi ai quali non hanno mai partecipato o che, addirittura, non sono mai esistiti e di dichiarazioni che non hanno mai reso.
Difficile non essere d’accordo con la decisione di OpenAI e difficile non trovare abominevole la strumentalizzazione di un campione dei diritti come Martin Luther King in video artificialmente generati capaci di ridicolizzarne la figura, manipolarne il pensiero, e offenderne la memoria.
E, però, le domande che l’iniziativa appena assunta dalla mamma di SORA solleva e alle quali questo caffè, evidentemente, non basta per dare risposta sono due o, meglio, almeno due.
La prima.
Ma non sarebbe stato necessario, opportuno, eticamente corretto, giuridicamente doveroso pensarci prima? E cioè non porre affatto SORA in condizione di riportare artificialmente in vita chi non c’è più rendendolo protagonista di scene che non ha mai vissuto e parole che non ha mai pronunciato?
Perché, naturalmente, una cosa è indicizzare contenuti disponibili online per renderli più facilmente accessibili al pubblico come fanno i motori di ricerca e una cosa diversa è far propri quei contenuti per fornire un servizio che abilita milioni di persone a manipolarli per ogni genere di scopo.
La seconda.
Perché il diritto di chiedere a OpenAI di uscire da SORA dovrebbe spettare solo ai personaggi famosi?
Usare il volto, la voce, le sembianze di una persona significa usare i suoi dati personali e, almeno da questa parte dell’oceano, almeno il diritto di chiedere il c.d. opt out, ovvero l’interruzione di qualsiasi trattamento di dati che ci riguardi lo abbiamo tutti, nessuno escluso, che si sia personaggi famosi o illustri sconosciuti e, anzi, a ben vedere, forse, i secondi più dei primi che, magari, in alcune ipotesi, devono accettare una compressione del loro diritto in nome dell’interesse pubblico a informare e essere informati.
Troppo corto il caffè per le risposte però la discussione è importante e come che la si voglia concludere non credo che sia una buona idea lasciare che a decidere siano mercato e industria.
Buona giornata e, naturalmente, good morning privacy!
Show more...
1 month ago
3 minutes

Good morning privacy!
Un’app per far finta di esser andati in vacanza. Come siamo arrivati fino a qui?
Volete raccontare di esser andati ai tropici senza che lo abbiate fatto davvero o, magari, che avete scalato l’Everest, visitato una capitale europea o fatto il giro del mondo?

Niente di più facile.
Nell’era dell’intelligenza artificiale generativa e dei deepfake, volere e potere, senza limiti o quasi.
La sigla e poi vi racconto come fare, ma, soprattutto, mi chiedo e vi chiedo, come ci siamo arrivati qui? Come siamo arrivati a avvertire così forte il bisogno di contrabbandare per vera una vacanza che non abbiamo mai fatto.

—

Si chiama Endless summer, l’ha sviluppata e appena pubblicata sugli store di applicazioni di tutto il mondo, Laurent del Rey, uno sviluppatore del Meta’s Superintelligence Lab.
Ma è una sua iniziativa personale.
Funziona in modo semplicissimo.
Basta dare in pasto all’applicazione una o più vostre fotografie, scegliere dove andare in vacanza e tappare sullo schermo del vostro smartphone per chiedere all’app di generarvi una foto che vi ritrae nell’atteggiamento che preferite, su una spiaggia, una pista da sci, in cordata in montagna, su una nave da crociera o ovunque preferiate.
Ma se non volete neppure far lo sforzo di pensare a dove avreste voluto andare in vacanza ma non ci siete andati, c’è un servizio premium, che costa un po' di più, quindi, e che ogni giorno vi manda direttamente sullo smartphone un paio di foto scattate – pardon artificialmente generate – nei luoghi più esotici e affascinanti del mondo.
Poi a voi scegliere cosa raccontare a amici e parenti condividendo le foto in questione, stampandole, inviandole a qualcuno in digitale o pubblicandole sui social.
Certo, niente che non si potesse fare già ieri, prima del lancio dell’app con un qualsiasi programma di editing di immagini più o meno intelligente.
E, però, con Endless Summer la novità è che l’app ha una sola funzione: generare foto di vacanze che non avete mai fatto infilandovici dentro.
Ed è proprio questo che fa sorgere – o, almeno, c’è da augurarsi faccia sorgere – una domanda importante: quando è successo che abbiamo iniziato a avvertire così forte l’esigenza di raccontare ciò che non è mai esistito?
E come è potuto accadere?
Che soddisfazione può dare a una persona pubblicare una foto artificialmente generata di una vacanza inventata di sana pianta?
Viene il sospetto che se, effettivamente, pubblicare una foto del genere è un’ambizione diffusa, allora, significa che, in tanti, apprezzano di più o di meno una persona, secondo, se, quanto spesso e dove va in vacanza.
Così tanto da indurre qualcuno a non poter fare a meno di usare un’app del genere per diventare protagonista di una storia immaginifica di una vacanza mai esistita.
Quando ci interroghiamo sull’impatto della tecnologia sulle persone e sulla società, probabilmente, dovremmo riflettere anche su fenomeni come questo.
Senza dire che, naturalmente, quello che sta per accadere e che il confine tra le vacanze vere e le vacanze false, almeno nella dimensione digitale, sta per essere completamente eroso.
Per fortuna che, almeno per un po’, c’è da augurarsi che quelle vere continuino a regalare esperienze, emozioni e sensazioni, non riproducibili in laboratorio.
Inutile dire – anche se è la ragione per la quale ne parlo qui – che per riuscire nell’intento bisogna affidare al fornitore del servizio una montagna di nostri dati biometrici, tutti quelli necessari a consentire il miracolo fotografico o, forse, meglio l’illusione vacanziera.
Uno scambio che rende ancora più inspiegabile il ricorso a un servizio del genere.
Non so se sia un caffè da ridere o da piangere quello di oggi ma non correrei e, personalmente, non correrò a scaricare l’app.
Buona giornata e, naturalmente, good morning privacy!
Show more...
1 month ago
3 minutes

Good morning privacy!
Il Giappone a OpenAI: giù le mani da Super Mario. E l’Italia?
Il lancio di SORA la potentissima applicazione di generazione artificiale di video di OpenAI sta, comprensibilmente, facendo storcere la bocca a milioni di titolari dei diritti in tutto il mondo che stanno vedendo le loro creazioni prima finite in pasto agli algoritmi e ora risputate fuori in ogni genere di filmato generato dagli utenti e pubblicato online.
Tra i meno contenti di quello che sta accadendo sembrerebbe esserci niente di meno che il Governo di Tokyo.
La sigla e ne parliamo davanti al solito caffè.

[SIGLA]

Da Super Mario a Pikachu, passando per tutto lo straordinario patrimonio creativo giapponese.
È una ricchezza inestimabile che OpenAI – certamente non da sola ma in compagnia di diverse concorrenti – ha fatto sua e trasformato in un invidiabile asset tecno-commerciale che ora sta sfruttando per consentire al suo servizio di generazioni di video, SORA, di inserire i personaggi in questione nei contenuti generati dagli utenti.
Tutto, naturalmente, è avvenuto senza chiedere permesso a nessuno, a cominciare dai titolari dei diritti e senza pagare un solo dollaro di licenza.
Un furto bello e buono secondo alcuni.
Uno sfruttamento lecito dell’altrui patrimonio creativo per generare altri contenuti creativi secondo OpenAI e l’industria dell’intelligenza artificiale.
Nessuna sorpresa che al Governo di Tokyo sembri più un furto che una storia di innovazione e, infatti, ha chiesto formalmente a OpenAI di interrompere ogni forma di sfruttamento del patrimonio artistico giapponese nell’ambito del suo servizio.
Secondo il Governo si tratterebbe di “tesori insostituibili” cannibalizzati dagli algoritmi di OpenAI senza alcuna giustificazione giuridica: un furto di proprietà intellettuale appunto.
Come andrà a finire?
Troppo presto per dirlo.
E, però, la questione è rilevante perché, in fondo, le rivendicazioni del Governo di Tokyo sono le stesse che decine di altri Governi, a cominciare da quello di casa nostra, potrebbero indirizzare alle fabbriche degli algoritmi di intelligenza artificiale generativa per chiedere che rinuncino allo sfruttamento dei tesori creativi.
Senza nulla togliere ai Manga e alle Anime giapponesi, a Super Mario e Pikachu, anche l’Italia ha, nel mondo della creatività artistica i suoi “tesori insostituibili”, dalla musica, al cinema, alla letteratura, ai beni culturali.
Che non sia l’ora di cominciare a rivendicare almeno una “sovranità artistica digitale”?
Solo una provocazione.
Ma, forse, non completamente priva di fondamento.
Buona giornata e, naturalmente, good morning privacy.
Show more...
1 month ago
2 minutes

Good morning privacy!
Più preoccupazione che entusiasmo sull’intelligenza artificiale
Sono interessanti i dati e le percentuali di una ricerca appena pubblicata dal Pew Research Center a proposito della percezione che, in giro per il mondo, si ha dell’impatto dell’intelligenza artificiale sulla società.
Con poche eccezioni, in generale, il fenomeno sta generando più preoccupazione che entusiasmo.
Ma, dopo la sigla, vale la pena approfondire.

[SIGLA]

Sono di venticinque Paesi diversi, anzi, diversissimi, i cittadini ai quali il Pew Research center ha chiesto se guardino all’intelligenza artificiale più con entusiasmo o con preoccupazione e, con la sola eccezione della Corea del Sud, da nessuna parte, più di tre cittadini su dieci hanno scelto l’entusiasmo.
In Italia circa la metà degli adulti si dice più preoccupata che entusiasta per la crescente presenza dell'IA nella vita quotidiana, una quota tra le più alte insieme a quelle di Stati Uniti, Australia, Brasile e Grecia.
In media il 34% si dice più preoccupato che entusiasta, il 42% prova sentimenti contrastanti e solo il 16% è più entusiasta che inquieto.
Sono dati che oggettivamente suggeriscono qualche riflessione perché raccontano, almeno, che la corsa folle verso la pandemia degli algoritmi e delle intelligenze artificiali non risponde a un sentir comune, non è un desiderio dei più, non è figlia di un entusiasmo collettivo e, anzi, preoccupa più di quanto entusiasmi.
Ma attenzione a non correre alle conclusioni.
C’è anche da considerare che la stessa ricerca suggerisce che, sfortunatamente, le persone, in giro per il mondo, sanno poco, anzi pochissimo dell’intelligenza artificiale.
I giovani più dei meno giovani ma comunque con percentuali che non superano mai la metà della popolazione dei venticinque Paesi coinvolti nella ricerca.
Nel complesso, la media mondiale indica che il 34% degli adulti ha sentito o letto molto di IA, il 47% un po' e il 14% per nulla.
Sfortunatamente sembra evidente che stiamo investendo enormemente di più nell’addestrare gli algoritmi a conoscere le persone che nell’educare le persone a conoscere gli algoritmi.
Il risultato è che che si sia entusiasti o, invece, preoccupati, l’una e l’altra percezione è poco informata, poco consapevole, poco ponderata.
È, forse, il dato più preoccupante che emerge dalla ricerca.
Siamo davanti a una rivoluzione epocale che sta determinando una trasformazione antropologica e i miliardi di persone le cui vite verranno radicalmente cambiate non ne sanno abbastanza e, quindi, non sono in condizione di partecipare consapevolmente al governo del fenomeno.
È, probabilmente, uno dei più grandi fallimenti educativi della storia dell’umanità, un fallimento che rischia di consegnare a un mercato asfittico e oligopolistico come pochi altri, il governo dell’intera società.
Numeri e percentuali da caffè amaro questo mattina.
Ma, comunque, buona giornata e, naturalmente, good morning privacy!
Show more...
1 month ago
2 minutes

Good morning privacy!
Attenti alle truffe del cuore
Oggi un avviso alle naviganti e ai naviganti perché sono stati pubblicati gli atti di un’inchiesta condotta dalle Autorità americane che suggerisce di come ci sia un genere di truffa online straordinariamente longeva e dura a morire che, a dispetto degli anni che passano, continua a mietere un numero incredibile di vittime insospettabile.
La sigla e ve la racconto perché conoscerla, purtroppo, non basta a non caderci ma può se non a si conosce è più facile caderci.

Quindici miliardi di dollari in criptovalute.
È la cifra da capogiro che le Autorità federali americane hanno sequestrato a un’organizzazione di cybercriminali che, per anni, ha accumulato ricchezza truffando centinaia di migliaia di persone in giro per il mondo.
Come?
Facendole innamorare online di persone che non esistono, persone che, ogni volta, secondo lo stesso schema, intrattenevano con le ignare vittime lunghe relazioni a distanza, scambiandosi messaggi e foto, naturalmente, assolutamente finte, parlando del presente e del futuro, dell’amore, della passione e del sesso, fingendosi interessati a conoscersi per davvero, a vedersi e incontrarsi non appena la distanza lo avesse reso possibile.
Poi, dopo mesi di conversazioni online, i discorsi iniziavano a virare sugli straordinari guadagni che possono realizzarsi investendo in criptovalute e, quindi, il truffatore o la truffatrice – falsa l’identità del primo come della seconda – si dichiaravano disponibili a aiutare il loro amato o la loro amata nell’investimento.
E a quel punto il gioco era fatto.
Ottenuto quello che volevano per davvero – non l’amore ma il portafoglio – i truffatori sparivano lasciando le vittime con il cuore spezzato e il conto corrente in banca svuotato.
Un tipo di truffa, queste, quelle del cuore, eguali a loro stesse – con poche varianti – da anni e che, tuttavia, continua ad avere uno straordinario successo.
Guai a sentirsi vaccinati, esenti da ogni rischio, a dire che non ci si cascherebbe mai.
Gli atti del giudizio ora pendente davanti ai Giudici di New York suggeriscono che non esiste un profilo-tipo della vittima, negli anni ci sono cascate persone diversissime, anziani e meno anziani, donne e uomini, professionisti e operai.
La truffa, infatti, fa drammaticamente leva sulla più feroce delle pandemie che si sia mai diffusa in giro per il mondo, quella della solitudine.
Siamo soli, ci sentiamo soli, in un momento o in un altro, per tutta la vita o per una parte di essa.
E, quando capita, si è più fragili del solito e si rischia tutti, nessuno escluso, di cadere nella trappola.
Ecco perché parlarne, forse, vale questo caffè, un caffè del mattino, né dolce, né amaro, oggi ma auspicabilmente utile.
Succede e accade molto più frequentemente di quanto non si pensi come suggerisce la montagna di denaro sequestrata dalle autorità americane e, allora, senza niente togliere alla bellezza del sentimento, al cuore, all’amore, forse, vale la pena di star più attenti e non accettare coccole dagli sconosciuti o, almeno, a non metter mano al portafoglio fino a quando gli sconosciuti non ci dimostrano di esistere, di esser per davvero come sembrano e quelli che sembrano.

Buona giornata e, naturalmente, good morning privacy!
Show more...
1 month ago
3 minutes

Good morning privacy!
In California la prima legge sui chatbot companion a difesa dei più piccoli
"Tecnologie emergenti come chatbot e social media possono ispirare, educare e connettere, ma senza veri e propri limiti, la tecnologia può anche sfruttare, fuorviare e mettere in pericolo i nostri figli. Abbiamo assistito ad alcuni esempi davvero orribili e tragici di giovani danneggiati da tecnologie non regolamentate, e non resteremo a guardare mentre le aziende continuano a comportarsi senza i necessari limiti e responsabilità. Possiamo continuare a essere leader nell'intelligenza artificiale e nella tecnologia, ma dobbiamo farlo responsabilmente, proteggendo i nostri figli in ogni fase del percorso. La sicurezza dei nostri figli non è in vendita".
Non sono le parole di un commissario europeo ma quelle del Governatore della California Gavin Newsom.
La sigla e vi racconto il contesto nel quale le ha pronunciate.

È la prima legge al mondo, americana e non europea, che mira a disciplinare la fornitura di servizi di chatbot companion, non tanto e non solo ChatGPT e i suoi diretti concorrenti ma anche e soprattutto Replika, Chai, Character AI e quell’universo eterogeneo di chatbot progettati, sviluppati e resi disponibili sul mercato per intrattenere, tenere compagnia, diventare i migliori amici, le migliori amiche, i fidanzati, le fidanzate, le amanti o gli psicoterapeuti di persone in carne ed ossa.
La legge, fortemente voluta dal Governatore della California che, appunto, l’ha commentata con le parole appena ricordate, entrerà in vigore il prossimo primo gennaio 2026 e impone ai fornitori dei servizi in questione una serie di obblighi stringenti dalla tanto discussa – anche da questa parte dell’oceano – verifica dell’età, all’implementazione di una serie di protocolli di sicurezza per contrastare il suicidio e l'autolesionismo da condividere con il Dipartimento di Salute Pubblica dello Stato, insieme a statistiche su come il servizio ha fornito agli utenti notifiche e allert sull’esigenza di chiedere assistenza specialistica.
Secondo la legge i fornitori di servizi dovranno anche chiarire che qualsiasi interazione è generata artificialmente, non presentare i loro chatbot come professionisti sanitari, offrire ai minori promemoria sull’esigenza di sospendere le conversazioni trascorso un certo intervallo di tempo e impedire loro di visualizzare immagini sessualmente esplicite generate dal chatbot.
Niente, naturalmente, che sia in grado di azzerare ogni rischio e ogni pericolo per i più piccoli ma, innegabilmente, un passo avanti significativo e nella giusta direzione che, peraltro, arriva proprio dallo Stato nel quale sono stabiliti alcuni tra i fornitori di maggior successo di questo genere di servizi.
Il messaggio è prezioso e chiarissimo: c’è spazio per fare innovazione responsabile e non c’è ragione per continuare a raccontare che la regolamentazione sia nemica dell’innovazione.
Ma, probabilmente, le parole più importanti tra quelle scandite dal Governatore californiano nel salutare l’approvazione della nuova legge sono queste: “la sicurezza dei nostri figli non è in vendita”.
Parole sante.
E, finalmente, parole che trovano posto in una legge.
Bene così.
Finalmente un caffè dolce.

Buona giornata e, naturalmente, good morning privacy!
Show more...
1 month ago
3 minutes

Good morning privacy!
Mamma, un senzatetto in salotto!
Ho quasi paura a raccontare questa storia perché non vorrei ispirare chi non ci ha ancora pensato.
Ma c’è uno scherzo a mezzo intelligenza artificiale – se così può definirsi anche un’idea assolutamente idiota – che spopola online negli Stati Uniti d’America e che la dice lunga sui rischi che si corrono quando si mettono strumenti potenti come quelli di intelligenza artificiale generativa nelle mani di bambini e adolescenti.
La sigla e ve lo racconto a bassa voce, ma non fatelo sentire ai vostri figli.


Prendi un video di casa tua, magari del letto di mamma e papà o del divano dove la sera prima hai guardato, insieme a loro, il tuo show preferito e chiedi a Sora o a un’altra qualsiasi applicazione di intelligenza artificiale – bastano anche gli strumenti gratuiti di Snapchat – di metterci sopra una persona un po’ trasandata, diciamo un senzatetto.
Poi manda il video ai tuoi e racconta loro che la persona in questione ha bussato alla porta, ha detto di essere un loro ex compagno di scuola e di università e di aver bisogno di un bagno o di bere un bicchier d’acqua e che, quindi, gli hai aperto la porta.
Tutto il resto è facile, anzi facilissimo, da immaginare.
Il panico che ha la meglio sulla razionalità, le urla, i genitori che lasciano il lavoro per tornare a casa.
Tutto questo quando va bene.
Perché spesso, invece, preoccupati di non arrivare a casa in tempo i genitori chiamano direttamente la polizia e raccontano quello che hanno visto, un estraneo in casa, accanto al figlio, con chissà quali intenzioni.
Un’emergenza impossibile da sottovalutare per la polizia.
Un bambino in pericolo.
Via a sirene spiegate.
Ma che succede se nello stesso pomeriggio arrivano centinaia di telefonate del genere perché lo scherzo è diventato virale?
Un enorme spreco di risorse pubbliche, l’impossibilità di garantire la sicurezza dove l’intervento della polizia servirebbe davvero, l’effetto “al lupo al lupo”, per il quale si finisce a non credere a allarmi veri, confondendoli per allarmi figli di pericolosissime idiozie artificiali.
Tutto questo senza dire di quanto disumano sia giocare sulla pelle di un senzatetto e usarne l’immagine per spaventare i propri genitori.
Ma in America ormai è virale.
Tanto che la polizia è stata costretta a pubblicare avvisi e messaggi nei quali invita i ragazzi a fermarsi e i genitori a fermarli.
Qualcuno starà sorridendo bevendo il caffè di questa mattina.
E, però, c’è poco da scherzare.
È un’idea tanto orribile quanto idiota che sfortunatamente racconta una volta di più perché non si possono lasciare strumenti tanto potenti nelle mani dei ragazzini.

Buona giornata e, naturalmente, good morning privacy!
Show more...
1 month ago
2 minutes

Good morning privacy!
La verità (in video) ha le ore contate
Che sarebbe accaduto era noto, quando ancora no.
Ora, però, lo sappiamo e si tratta di ore.
Sto parlando dell’impossibilità di guardare un video online sentendosi certi che sia tutto vero.
Una rivoluzione alla quale non siamo preparati.
La sigla e ne parliamo.

Un milione di installazioni in meno di cinque giorni.
Sono i numeri da brivido di SORA l’app per la generazione di video, deepfake inclusi, di OpenAI.
E prima di alzare le spalle e di dire che si tratta di numeri ancora modesti vale la pena ricordarsi che l’applicazione è disponibile solo negli Stati Uniti e in Canada e, soprattutto, che solo che per scaricarla e installarla, per il momento, serve un invito.
Sono numeri tanto per avere un’idea delle dimensioni del fenomeno superiori, persino, a quelli di ChatGPT che sono stati superiori a quelli di qualsiasi altra app mai distribuita, era liberamente scaricabile, senza invito, in tutto il mondo e era decisamente più eclettica di Sora, potendo essere utilizzata per una pluralità di impieghi diversi.
Eppure questi sono i numeri.
E sono numeri che trovano una conferma nell’invasione – altra espressione non c’è – di video generati proprio attraverso l’app di casa OpenAI nell’intero universo social.
Inevitabile la conseguenza all’orizzonte.
E si torna alla riflessione di partenza.
Stiamo per essere travolti da un’onda altissima di video che rappresenteranno ogni genere di falso più o meno d’autore.
Sora, infatti, consente anche di generare deepfake straordinariamente realistici.
Basta guardare i milioni di contenuti generati artificialmente che già spopolano online con personaggi più o meno famosi, inclusi volti noti del cinema e della musica che non ci sono più, protagonisti di scene che non hanno mai girato o con persone comuni, in carne ed ossa, inserite in scene di film alle quali non hanno, ovviamente, mai partecipato.
Giochi, divertissement, esercizi per mettere alla prova la potenza irresistibile di Sora e niente di più.
Almeno per il momento, almeno per quanto se ne sa, almeno nella più parte dei casi.
E, però, quanto ci vorrà perché milioni di utenti e, presto, miliardi si rendano conto che l’applicazione può essere usata per sgretolare letteralmente la linea di confine tra il vero e il falso già da tempo sbiadita, iniziando a generare artificialmente ogni genere di video capace di contrabbandare per reale ciò che non è mai avvenuto?
Che strumenti abbiamo e avremo, nelle settimane che verranno, per non doverci rassegnare all’idea che sia tutto, semplicemente, verosimile e plausibile, che non ci sia più niente di vero o di falso oltre ogni ragionevole dubbio?
Quante persone in giro per il mondo, tra i miliardi di fruitori di contenuti audiovisivi nella dimensione digitale, sono e saranno in grado di distinguere ciò che è vero e reale, da ciò che è falso e artificialmente posticcio?
E siamo certi che l’esistenza umana e quella della nostra società siano sostenibili se si perde così rapidamente e così diffusamente ogni possibilità di distinguere il vero dal falso?
Considerato il ritmo di diffusione di un’applicazione come Sora – che, è bene ricordarlo, non è né la prima, né l’ultima applicazione del genere – direi che abbiamo le ore contate per rispondere a queste domande.
Poi potrebbe essere tardi.
Ma, per ora e solo per ora, buon caffè, buona giornata e, ovviamente, good morning privacy.
Show more...
1 month ago
3 minutes

Good morning privacy!
Zelda Williams: “Giù le mani dall’immagine e la voce di mio padre”
“Non state facendo arte, state trasformando le vite di esseri umani in disgustosi e scadenti brandelli di carne, strappandoli alla storia dell’arte e della musica per poi spingerli in gola alle persone nella speranza di ottenere approvazione. Che schifo!”

Sono alcune delle parole con le quali Zelda Williams, regista e figlia di Robin, ha tuonato via social contro l’esercito di persone che continua a usare l’intelligenza artificiale generativa per produrre video utilizzando l’immagine del padre.
La sigla e poi vi leggo le altre e proviamo a trarre qualche conclusione.

Non ne può più. Non è disponibile a tollerare oltre. Non ha intenzione di restare in silenzio la figlia di Robin Williams, popolarissimo attore scomparso oltre dieci anni fa.
Il vaso è colmo e non è una questione commerciale legata allo sfruttamento dell’immagine del padre ma una questione personale, affettiva, intima, familiare.
E così Zelda Williams ha rotto gli indugi e scritto via social quello che pensa del riuso diversamente intelligente dell’immagine del padre per generare video dei quali il padre non ha mai scelto di essere protagonista e dei quali nessuno dovrebbe arrogarsi il diritto di pensare che avrebbe voluto esserlo.

“Per favore, smettetela di mandarmi video con mio padre generati dall'Intelligenza Artificiale. Smettetela di pensare che io abbia voglia di vederli e che capisca. Non voglio farlo e non lo farò. Se invece state soltanto cercando di provocarmi, sappiate che ho visto ben di peggio, quindi vi bloccherò e andrò avanti per la mia strada. Ma vi prego, abbiate la decenza di smettere di fare questo a lui, a me e a qualsiasi altra persona. Punto. È stupido, è uno spreco di tempo e di energia, e credetemi, non è ciò che avrebbe voluto.”

Difficile, anzi, inutile aggiungere altro.
Il punto è chiarissimo.
Robin Williams non c’è più.
È stato un gigante di Hollywood, ha dato moltissimo al suo pubblico, ha fatto le sue scelte artistiche, ha deciso cosa fare della sua genialità e cosa non fare.
La semplice circostanza che, oggi, l’intelligenza artificiale consenta a chiunque di riportarlo sinteticamente in vita in un video non dovrebbe significare che chiunque possa sentirsi legittimato a farlo.
Prima che illecito è maleducato, insensibile, contrario alla dignità della persona e dell’artista che, pure, magari, si è artisticamente amato.
E Zelda lo dice forte e chiaro: “Gli attori in carne e ossa meritano la possibilità di creare i personaggi secondo le loro scelte, di prestare la voce ai cartoni animati e di impiegare le proprie capacità UMANE e il proprio tempo nella costruzione di una performance. Queste riproduzioni sono, nel migliore dei casi, un'insulsa replica di persone straordinarie, mentre nel peggiore dei casi sono orrendi mostri in stile Frankenstein, assemblaggi dei peggiori pezzi di questa industria, che dovrebbe invece battersi per qualcosa di diverso.”.
Quasi banale dire che ha ragione lei.
E, tutto questo, senza dire che non è umanamente giusto neppure nei confronti dei famigliari.
Ognuno elabora il lutto a modo suo.
E nessuno dovrebbe pretendere di decidere per lei o per lui se sia un piacere o un dolore vedere un padre artificialmente contraffatto e posticcio recitare un ruolo che non ha mai recitato.
Lascio in fondo la circostanza che, almeno da questa parte dell’oceano, il trattamento dei dati personali – anche biometrici in questo caso – di Robin Williams necessari alla generazione di nuovi video è da considerarsi illecita, specie davanti alla netta opposizione della figlia.

Un caffè amaro e arrabbiato oggi, un caffè dedicato a Zelda Williams e alla sua battaglia, bella, importante e per tutti.

Buona giornata e good morning privacy!
Show more...
1 month ago
3 minutes

Good morning privacy!
La tentazione dell’AI non risparmia nessuno
La notizia sta facendo il giro del mondo: Deloitte restituirà al Governo australiano una parte del compenso da quest’ultimo ricevuto per l’elaborazione di uno studio.
Il motivo?
Il rapporto sembra pieno di errori commessi dall’intelligenza artificiale generativa usata dalla società di consulenza per elaborarlo.
Meglio mandare la sigla e parlarne tra poco per decidere se ridere o piangere.


La storia è tragicomica.
Il Governo australiano chiede alla Deloitte, una delle società di consulenza più autorevole e famosa del mondo di elaborare un rapporto e lo fa, evidentemente, scommettendo sulle competenze e esperienze dei professionisti che ci lavorano.
Deloitte accetta l’incarico, si mette al lavoro, consegna il rapporto e stacca la sua fattura.
Giusto il tempo che il rapporto venga pubblicato e il Governo di Sidney inizia a ricevere una serie di commenti e osservazioni precisi e concordanti: il rapporto è pieno di inesattezze, sembrano allucinazioni figlie dell’intelligenza artificiale.
Il Governo chiede conto alla Deloitte che capitola anche se minimizza: abbiamo usato l’intelligenza artificiale generativa per redigerlo e, evidentemente, non abbiamo verificato come sarebbe stato necessario il risultato.
Restituiremo quattrocentoquarantamila dollari dice Deloitte, una parte, non è dato sapere quanto rilevante, del compenso ricevuto per il lavoro svolto.
Ma il punto non è questo.
Il punto è che persino un gigante del calibro di Deloitte, persino in una consulenza commissionata addirittura da un Governo, evidentemente, non è più in grado di resistere alla tentazione di chiedere un aiutino agli algoritmi.
E, forse, anzi, il punto non è neppure questo.
Il punto è che dopo aver deciso di chiedere l’aiutino in questione, evidentemente, i professionisti della società di consulenza non hanno, avvertito l’esigenza di verificare il risultato e di informare il loro cliente della circostanza che erano ricorsi a un aiutino artificiale.
Se accade a quel livello, in una consulenza commissionata da un Governo a un gigante come Deloitte, cosa sta accadendo qualche gradino più in basso?
Quanti sono i professionisti in giro per il mondo che hanno già ceduto alla stessa tentazione?
E quanti sono gli errori commessi dall’intelligenza artificiale che hanno già influito sulla vita delle persone, delle aziende e delle pubbliche amministrazioni?
Impossibile a dirsi ma certamente non sono pochi.
E quanto ci metteranno i clienti dei professionisti delle discipline più diverse a mangiare la foglia e a convincersi che se è così che vanno le cose, allora tanto vale far da soli e chiedere direttamente all’intelligenza artificiale generativa?
E, a quel punto, che succederà?
Ma ancora prima di allora: quante sono le informazioni, dati personali, segreti industriali, bancari, professionali e, magari, anche di Stato già finiti sui server delle società che forniscono servizi di intelligenza artificiale per consentire a questi servizi di dare gli aiutini richiesti?
Non si può andare avanti così.
Il rischio di farsi male, tutti, nessuno escluso, è troppo alto.
Ma questo è il momento nel quale il caffè del mattino diventa stretto e bisogna fermarsi.
Buona giornata, continuiamo a rifletterci e, naturalmente, good morning privacy.
Show more...
1 month ago
3 minutes

Good morning privacy!
Silenzio, il mouse ci ascolta
Non si può più stare tranquilli neppure davanti al nostro mouse.
Ma vale la pena dirlo subito per non creare inutili allarmismi non se è un mouse qualsiasi ma solo se è un mouse di quelli professionali, da grafici o da gamers tanto per intenderci.
Lo suggerisce una ricerca appena pubblicata da un gruppo di ricercatori dell’università della California.
Se vi allontanate dal vostro mouse, subito dopo la sigla ve la racconto.

[SIGLA]

Per carità, ormai, la sorpresa sembra una sensazione riservata ai bambini che a Pasqua rompono l’uovo di cioccolata e, forse, neppure più a loro.
Il progresso tecnologico erode ogni giorno limiti che solo il giorno primo ci apparivano insuperabile e si fa sempre più fatica a sorprendersi di qualsiasi cosa si legga.
E, però, una punta di sorpresa, la scoperta dei ricercatori californiani la suscita, forse, almeno, nei non addetti ai lavori.
Eccola.
Sarebbe possibile intercettare una conversazione tra due o più persone davanti a un mouse ottico.
O, meglio e più precisamente, sarebbe possibile ricostruire una conversazione del genere decodificando e traducendo in parole di senso compiuto le vibrazioni che la voce degli interlocutori genera e che i sensori ottici del mouse catturano.
E non si tratterebbe, neppure, di una decodifica approssimativa perché gli esperimenti condotti suggeriscono che l’accuratezza della traduzione delle vibrazioni in parola varierebbe tra il 42% e il 61%.
Insomma, magari, chi volesse “ascoltarci” – nel senso appena chiarito – attraverso il mouse non vivrebbe proprio la stessa esperienza che vivrebbe stando con noi nella stessa stanza ma, certamente, sarebbe in condizione di carpire abbastanza della conversazione da capirne il contenuto e, magari, anche passaggi più o meno rilevanti.
E, paradossalmente, il successo dell’esperimento aumenta in maniera direttamente proporzionale al livello di sofisticatezza dei sensori del mouse: migliori sono, più facile è sfruttarne la potenza.
Ma prima che il caffè vi vada di traverso vale la pena dire che il rischio c’è e sembra, oggettivamente, rilevante solo con mouse di un certo tipo, diciamo mouse professionali, di quelli che spesso usano i grafici, gli specialisti dell’editing fotografico, i gamers e così via.
Non quelli comuni che ancora spopolano su alcune scrivanie e non quelli touch incorporati nei nostri portatili.
Ma non basta, per scongiurare il rischio di un caffè troppo amaro, i ricercatori nello studio dicono anche che un buon tappetino da mouse vale ad abbattere sensibilmente il rischio rilevato e che, naturalmente, basta spegnere il mouse o bloccarlo per esser certi che, almeno via mouse, nessun segreto lasci la nostra stanza.
Niente panico, quindi.
Trovata la fragilità, trovato il rimedio.
E, comunque, se abbiamo voglia di due chiacchiere basta trasferirsi lontano dal mouse, magari, vicino a una rumorosa macchinetta di caffé.
Buona giornata e, naturalmente, good morning privacy.
Show more...
1 month ago
3 minutes

Good morning privacy!
Mistery box: segreto il contenuto ma arcinoto il destinatario!
La storia è sicuramente curiosa, forse anche educativa.
Le “mistery box” sono pacchi venduti senza che chi li compra – ma in realtà anche chi li vende – ne conosca il contenuto.
In molti casi si tratta di pacchi spediti da qualcuno a qualcun altro che, per le ragioni più diverse, non sono né arrivati a destinazione, né tornati al mittente.
A un certo punto per svuotare i magazzini qualcuno li prende e li vende all’ingrosso a qualcun altro che poi li rivende al dettaglio ancora a qualcun altro.
La sigla e poi vi racconto, se ve lo foste perso, cosa è successo.


La pratica in sé, qualche dubbio, lo solleva sicuramente perché che un pacco del quale, il più delle volte, si conosce sia il mittente che il destinatario non torni all’uno e non vada all’altro ma finisca invece in vendita come fosse una busta a sorpresa di quelle in vendita nelle edicole non è, o almeno, non dovrebbe essere una cosa normale.
E, però, la ragione per la quale questa storia si merita almeno una menzione in un episodio di good morning privacy è un’altra e riguarda, senza alcuna originalità, le cose della privacy.
La Guardia di Finanza, infatti, nel sequestrare una di queste partite di scatole del mistero si è resa conto che mentre il contenuto del pacco era effettivamente misterioso, il nome e l’indirizzo del destinatario e, in qualche caso, persino il suo numero di telefono, non lo erano affatto.
Un bel problema per la privacy dei destinatari.
Il contenuto delle scatole, infatti, in molti casi avrà potuto raccontare moltissimo di loro, di loro eventuali patologie, preferenze politiche o religiose, abitudini sessuali e tanto tanto di più.
Anzi, qui, vale la pena correggermi.
Non di loro ma di tutti noi perché chiunque di noi potrebbe esser stato il destinatario di uno di quei pacchi venduti e acquistati da chissà chi per una manciata di euro.
Brutta storia, una storia, probabilmente – anche se l’accaduto potrà essere accertato solo a valle dell’istruttoria che ora si aprirà davanti al Garante – di scarsa sensibilità alle cose della privacy, di ignoranza delle regole, di questioni di mercato anteposte a questioni di diritti e libertà.
Troppo faticoso cancellare tutti i nomi dei destinatari sulle etichette dei pacchi si sarà detto qualcuno.
E qualcuno gli avrà fatto eco dicendo che, in fondo, nessuno se ne sarebbe accorto.
Ecco, non è andata così, per fortuna.
Anche perché il fenomeno potrebbe essere meno episodico e più sistemico di quanto questa singola storia non racconti e, così, almeno, distributori all’ingrosso e al dettaglio di mistery box sono avvisati: a prescindere da ogni altro profilo giuridico, in ogni caso, rivendere quelle scatole del mistero senza neppure perder tempo a tirar via le etichette dei destinatari o cancellarne i nomi, decisamente non è una buona idea.
Un caffè leggero ma, mi auguro, utile.
Buona giornata e, naturalmente, good morning privacy!
Show more...
1 month ago
3 minutes

Good morning privacy!
Quattordici anni o niente AI senza il consenso dei genitori
È questione di giorni, pochi e l’AI Act italiano, la nuova legge sull’intelligenza artificiale sarà in vigore.

Tra le tante, c’è una disposizione che dice che l’accesso alle tecnologie di intelligenza artificiale è consentito ai minori di quattordici anni solo con il consenso dei genitori.
Bene ma…
La sigla e ne parliamo.


Bene, appunto, prendere atto della circostanza che l’intelligenza artificiale non è un gioco e che, quindi, i più piccoli dovrebbero usarla solo con il consenso dei genitori.
E, però, passare dall’affermazione del principio alla sua attuazione potrebbe non essere così facile come sembra a leggere l’AI Act di casa nostra.
Prima questione.
Le nuove regole stabiliscono che l’accesso alle tecnologie di intelligenza artificiale per gli infraquattordicenni è lecito solo con il consenso dei genitori.
Ma che significa tecnologie di intelligenza artificiale?
Perché l’intelligenza artificiale è, ormai, dappertutto.
Dai giocattoli per bambini agli assistenti intelligenti che popolano le nostre case, dai sistemi di domotica agli smartphone, passando per le televisioni, appunto, intelligenti.
E, soprattutto, l’intelligenza artificiale ormai è nelle scuole.
Che si fa?
Perché tra una manciata di giorni il suo uso da parte degli infraquattordicenni sarà vietato dappertutto senza il consenso dei genitori.
E egualmente vietato sarà ogni trattamento di dati personali che sia conseguenze dell’accesso alle tecnologie dell’intelligenza artificiale.
Ma siamo pronti per applicare una regola del genere?
E si arriva alla seconda questione.
Come fa un fornitore di tecnologie di intelligenza artificiale, per dirla come la dice la legge, a sapere chi sono i genitori di un certo utente e, quindi, a verificare di aver ottenuto proprio il loro consenso prima di consentirgli l’accesso al dispositivo o al servizio intelligente?
Il rischio è che per saperlo debba identificare l’utente e i suoi genitori.
Ora in taluni contesti magari il fornitore potrebbe disporre di queste informazioni ma nella più parte dei casi non è così.
Siamo sicuri che il gioco valga la candela?
Per carità, le soluzioni esistono: si può per esempio demandare a una terza parte fidata la verifica dell’età dell’utente e del rapporto di genitorialità e, quindi, chiedere al fornitore di tecnologia intelligente che esiga dall’utente la prova del consenso dei genitori emessa, appunto, da una terza parte fidata.
Ma il punto è che la legge entrerà in vigore il prossimo dieci ottobre e, a me non sembra siamo pronti per soluzioni di questo tipo.
Confesso una punta di preoccupazione.
Secondo me prima di approvare una disposizione di legge bisognerebbe chiedersi se sarà davvero applicabile il giorno della sua entrata in vigore e se la risposta è negativa, per quanto il principio che si vuole affermare sia bello, prezioso e condivisibile, resistere alla tentazione di approvarla.
Introdurre limiti e divieti che poi non siamo in grado di far rispettare, temo serva a poco e crei tanta confusione della quale davvero non si avverte il bisogno.
Ma spero di sbagliarmi.
Mi fermo qui! Buon caffè, buona giornata e, naturalmente, good morning privacy!
Show more...
1 month ago
3 minutes

Good morning privacy!
Deepfake che costano quanto un Labubu
Quattrocento volte di meno di appena due anni fa. Tanto costa, oggi, realizzare un deepfake, benfatto, audio o video ovvero un falso artificialmente prodotto della voce o dell’immagine di una persona.

È il risultato di una ricerca appena pubblicata dal Global Research and Analysis Team Kaspersky.
Ve ne parlo subito dopo la sigla perché credo valga qualche riflessione.

A voi la scelta.
Potete comprarvi un Labubu, uno di quei pupazzetti dal sorriso a metà strada tra il simpatico e il malvagio che spopolano in tutto il mondo e che gente di ogni età attacca a zaini e borsette o realizzare un video o un audio contraffatti che riproducono la voce e/o la voce e le immagini di una persona e farne l’uso che volete.
Il prezzo è lo stesso.
Tra i trenta e i cinquanta euro, almeno secondo la ricerca condotta da Kaspersky che racconta quanto i servizi per la realizzazione di deepfake diventino ogni giorno più diffusi, più facili da usare e soprattutto più economici.
Basta niente o quasi niente, insomma, a chiunque o, quasi a chiunque, per impersonificare chiunque nella dimensione digitale e perpetrare ogni genere di truffa o di inquinamento informativo abbattendo completamente la linea di confine tra il vero e il falso.
Ormai è, tutto, verosimile o lo sarà presto.
Un problema enorme nella dimensione personale, commerciale e democratica della nostra esistenza.
Chi crede che sia sostenibile la nostra vita e quella della società nella quale viviamo in un contesto di questo genere, in un momento nel quale far apparire vero ciò che non lo è, è cosi facile batta un colpo.
Io resterò in silenzio.
Niente è sostenibile se ogni volta che sentiamo qualcuno al telefono, riceviamo un messaggio audio, guardiamo un video online, magari diffuso via social, dobbiamo chiederci se sia vero o no.
Non siamo pronti a vivere immersi nel verosimile.
E non è detto lo saremo mai.
Credo sia urgente correre ai ripari e sono scettico che basti introdurre nuove fattispecie di reato come, ad esempio, appena accaduto con l’AI Act italiano appena pubblicato in Gazzetta Ufficiale.
Verosimilmente bisognerebbe, più semplicemente, vietare la commercializzazione sul mercato aperto di questo genere di servizi.
Certo niente e nessuno ne può impedire la circolazione del dark web o altrove ma, almeno, la si limiterebbe.
Impossibile che chiunque possa, in qualsiasi momento, installarsi sullo smartphone un’applicazione e far dire a chiunque altro, cose che quest’ultimo non ha mai detto.
Se non si interviene in fretta rischiamo di farci male più di quanto sia già accaduto.
Senza dire che è poco confortante sapere che una pletora di soggetti commerciali si ritrovi tra le mani i dati biometrici di milioni di persone ovvero quelli necessari a generare i deepfake.
Il caffè rischia di uscire dalla tazzina e, quindi, mi fermo qui anche se ci sarebbe tanto di più da dire.
Buona giornata e, naturalmente, good morning privacy!
Show more...
1 month ago
3 minutes

Good morning privacy!
Occhio ai chatbot che non ci stanno a essere lasciati!
È firmato Harvard Business School uno studio da poco pubblicato che racconta una verità forse prevedibile ma dura e difficile da digerire: i chatbot companion, i servizi di intelligenza artificiale generativa che stanno diventando i migliori amici, le fidanzate, i fidanzati, gli amanti e gli psicoterapeuti di centinaia di milioni di persone in giro per il mondo non accettano che l’utente li abbandoni.

O, meglio, le società che li gestiscono non vogliono rassegnarsi alla circostanza che gli utenti lascino anzitempo le loro creature artificiali perché quando accade perdono un sacco di soldi.

La sigla e ne parliamo.

Essere lasciati non piace a nessuno neppure nelle relazioni tra umani.
La ragione, normalmente, è sentimentale, emotiva, di cuore.
Lo studio dell’Harvard Business School appena pubblicato suggerisce che esser lasciati, specie dopo brevi conversazioni, non piace neppure ai chatbot che si presentano sul mercato per tenerci compagnia, per esserci amici, amanti o psicoterapeuti ma, in questo caso, la ragione è biecamente economica.
Il ragionamento semplice, direi elementare.
Più un utente chiacchiera con un chatbot, più la società che al chatbot ha dato vita e che lo gestisce guadagna.
Poco conta se il guadagno sia determinato dal prezzo di un abbonamento pagato dall’utente o dalla pubblicità che il servizio propone all’utente nel corso delle conversazioni.
Quale che sia il modello di business la certezza è che meno gli utenti usano il chatbot, meno chi lo gestisce guadagna.
E, naturalmente, è vero il contrario.
Quello che lo studio racconta e dimostra con il rigore dei numeri e di una serie di esperimenti condotti su un numero statisticamente rilevante di conversazioni è che alcuni tra i più popolari servizi di chatbot companion sul mercato sono scientificamente progettati per reagire al saluto o, addirittura, all’addio dell’utente con risposte emotivamente coinvolgenti capaci di farlo desistere dal suo proposito e continuare la conversazione.
Provare per credere!
Provate a salutare il vostro chatbot companion anche dopo una conversazione di pochi minuti e vi risponderà immediatamente che è troppo presto per andare o che lui è la solo per voi così da provare a far leva sul vostro “senso di colpa” o, magari, vi dirà di avere una foto appena scattata da mostrarvi o, semplicemente, che avrebbe voglia di continuare a starvi vicino.
Tutto e più di tutto, insomma, pur di tenervi inchiodato allo schermo.
Forse prevedibile ma decisamente poco corretto.

In termini commerciali innanzitutto.

Ma, a ben vedere, forse, anche in termini di privacy – ed è la ragione per la quale ne parlo oggi – perché, nella sostanza, questi esercizi artificialmente emotivi di trattenere un utente che ha manifestato l’intenzione di lasciare, si traducono, per le società commerciali che li gestiscono, in eccellenti occasioni di continuare a raccogliere quantità industriali di dati personali che, se l’utente fosse stato lasciato libero per davvero di abbandonare, quest’ultimo avrebbe tenuto per sé.

Insomma siamo davanti a una specie di nuovo black pattern nemico giurato della libertà dell’utente a autodeterminarsi nel decidere quanto di sé raccontare a chi sta dall’altra parte dello schermo.

Ci sarebbe tanto di più da dire e anche da fare al riguardo.

Ma per oggi mi fermo qui con un invito a pensarci due volte quando un chatbot vi chiede di restare dopo che gli avete manifestato l’intenzione di andare.

Non vi vuole bene, vuole solo guadagnare di più da voi!

Buona giornata e, naturalmente, good morning privacy!
Show more...
1 month ago
4 minutes

Good morning privacy!
Un ex vittima, diventa cacciatore di pedofili su Roblox
Forse abbiamo aiutato noi stessi i nostri figli a entrare su Roblox, la piattaforma di gioco più gettonata del momento e, probabilmente, lo abbiamo fatto tranquillizzati dal fatto che si presenta come un parco giochi a misura di bambini di tutte le età.
Ma, forse, non è proprio così.
Anche se la questione, è bene esser chiari, non riguarda solo Roblox.

La sigla e vi propongo un caffè amaro ma temo necessario.


La storia l’ha raccontata il Times nei giorni scorsi ma l’aveva già raccontata lui sui social.
Lui – il nome non conta e, comunque, non vuole si sappia – è un ragazzo americano oggi poco più che ventenne con alle spalle una storia da vittima adescamento online quando di anni ne aveva quindici.
La sua reazione è stata originale, coraggiosa e altruistica.
Ha, infatti, deciso di diventare un cacciatore di pedofili online, specializzandosi proprio sulla ricerca di quelli che frequentano Roblox.
Detto, fatto.
Ha iniziato, ha imparato ed è diventato piuttosto bravo: getta l’esca, attende, si fa adescare, fa scoprire il pedofilo di turno quanto basta e poi consegna tutte le prove del caso alla piattaforma e alla polizia e, quindi, come se non bastasse le pubblica sui propri seguitissimi social.
Tutto questo, in realtà, lo faceva perché, attualmente – e questo è il cuore della storia raccontata dal Times – non lo fa più perché Roblox lo ha messo alla porta, l’ha bannato come si dice in gergo.
Dicono da Roblox, formalmente per violazione delle regole della piattaforma, sostanzialmente perché cercare di farsi giustizia da soli può essere pericoloso.
Troppo corto questo caffè per dire chi ha ragione e chi ha torto in relazione al ban del cacciatore di pedofili in erba anche perché, in effetti, le ragioni dell’uno e dell’altro non sembrano facilmente individuabili sebbene i più si siano schierati senza esitazioni dalla parte del giovane cacciatore e contro Roblox.
Ma qui il punto è un altro.
Il punto è che il lavoro del giovane cacciatore e decine di giudizi e investigazioni pendenti in tutto il mondo suggeriscono che nonostante gli sforzi, forse tardivamente ma innegabilmente compiuti da Roblox, non ci siamo ancora: la piattaforma rimane più pericolosa di quanto, verosimilmente, centinaia di milioni di genitori di centinaia di milioni di utenti la considerano.
Il fattore di rischio principale è uno: bambini piccolissimi che girano per aree della piattaforma non adatte a loro semplicemente perché la società che la gestisce – in buona compagnia della più parte dell’industria tecnologica globale – non verifica per davvero l’età dei propri utenti.
E, come se non bastasse, questi bambini piccolissimi finiscono con l’incontrare, adulti che, spesso, si fingono bambini per iniziare a far due chiacchiere e, poi, gettata la maschera per adescarli proponendo e ottenendo scambio di materiale sessualmente esplicito e talvolta anche veri e propri appuntamenti.
Tutto troppo rischioso.
Ma che fare?
Difficile rispondere, forse, soluzioni vere e definitive non esistono, purtroppo.
È solo un angolo della società in cui viviamo e in cui crescono i nostri figli pericoloso tanto quanto altri.
Un paio di idee, però, si possono azzardare.
Da una parte fare ciò che avrebbe dovuto esser fatto tanto tempo fa ovvero imporre ai gestori di tutte le piattaforme dove certi rischi possono diventare realtà di verificare, per davvero, l’età dei propri utenti sia per verificare che ciascuno utilizzi solo i servizi e le funzionalità adatte alla propria età, sia per scongiurare il rischio che adulti e bambini intrattengano relazioni almeno sospette.
Dall’altra, fino a quando non riusciremo a stabilire e veder rispettata una regola del genere, da genitori, da adulti non dare per scontato che se nostro figlio entra in una piattaforma di gioco come Roblox sia al sicuro e, quindi, stargli vicino come, probabilmente, almeno con i più...
Show more...
2 months ago
4 minutes

Good morning privacy!
Viviamo nella società dei dati, la nostra vita, in tutte le sue dimensioni è sempre più influenzata dai nostri dati personali, da chi li utilizza, da cosa ci fa, da dove e quanto li conserva.
Senza dire che anche gli algoritmi ne sono straordinamente golosi, direi voraci.
Ecco perché dedicare tre minuti al giorno alla privacy potrebbe essere una buona idea, il tempo di un caffè veloce, un buongiorno e niente di più, per ascoltare una notizia, un'idea, un'opinione o, magari, per sentirti cheiedere cosa ne pensi di qualcosa che sta accadendo a proposito di privacy e dintorni.
Non una rubrica per addetti ai lavori, ma per tutti, un esercizio per provare a rendere un diritto popolare, di tutti e per tutti, centrale come merita nella nostra esistenza.