Home
Categories
EXPLORE
True Crime
Comedy
Business
Society & Culture
Sports
History
Fiction
About Us
Contact Us
Copyright
© 2024 PodJoint
00:00 / 00:00
Sign in

or

Don't have an account?
Sign up
Forgot password
https://is1-ssl.mzstatic.com/image/thumb/Podcasts116/v4/60/9c/5e/609c5ea7-ae70-7c46-a4f7-6ead578fcab0/mza_10841556518211441020.jpg/600x600bb.jpg
Good morning privacy!
Guido Scorza
386 episodes
10 hours ago
Viviamo nella società dei dati, la nostra vita, in tutte le sue dimensioni è sempre più influenzata dai nostri dati personali, da chi li utilizza, da cosa ci fa, da dove e quanto li conserva.
Senza dire che anche gli algoritmi ne sono straordinamente golosi, direi voraci.
Ecco perché dedicare tre minuti al giorno alla privacy potrebbe essere una buona idea, il tempo di un caffè veloce, un buongiorno e niente di più, per ascoltare una notizia, un'idea, un'opinione o, magari, per sentirti cheiedere cosa ne pensi di qualcosa che sta accadendo a proposito di privacy e dintorni.
Non una rubrica per addetti ai lavori, ma per tutti, un esercizio per provare a rendere un diritto popolare, di tutti e per tutti, centrale come merita nella nostra esistenza.
Show more...
News
RSS
All content for Good morning privacy! is the property of Guido Scorza and is served directly from their servers with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
Viviamo nella società dei dati, la nostra vita, in tutte le sue dimensioni è sempre più influenzata dai nostri dati personali, da chi li utilizza, da cosa ci fa, da dove e quanto li conserva.
Senza dire che anche gli algoritmi ne sono straordinamente golosi, direi voraci.
Ecco perché dedicare tre minuti al giorno alla privacy potrebbe essere una buona idea, il tempo di un caffè veloce, un buongiorno e niente di più, per ascoltare una notizia, un'idea, un'opinione o, magari, per sentirti cheiedere cosa ne pensi di qualcosa che sta accadendo a proposito di privacy e dintorni.
Non una rubrica per addetti ai lavori, ma per tutti, un esercizio per provare a rendere un diritto popolare, di tutti e per tutti, centrale come merita nella nostra esistenza.
Show more...
News
Episodes (20/386)
Good morning privacy!
La privacy vince sulla violenza mediatica anche in guerra
In Italia la notizia l’hanno battuta in pochi e, forse, non c’è da sorprendersi: la BBC, il servizio pubblico televisivo inglese, uno dei laboratori più blasonati di giornalismo di qualità, nei giorni scorsi ha raggiunto un accordo transattivo con una famiglia israeliana dopo averne violato la privacy.
La famiglia, attaccata da Hamas il 7 ottobre 2023 aveva citato l’emittente televisiva in Tribunale dopo che una troupe era entrata nella sua abitazione, subito dopo l’attacco al quale era miracolosamente sopravvissuta e aveva ripreso scene di disperazione e sconforto facilmente immaginabili, oggetti e foto personali e personalissimi.

La sigla e ne parliamo

"Non solo i terroristi hanno fatto irruzione in casa nostra e hanno cercato di ucciderci – hanno detto i sopravvissuti all’attacco - ma poi la troupe della BBC è entrata di nuovo, questa volta con una telecamera come arma, senza permesso o consenso.
È stata un'altra intrusione nelle nostre vite. 
Sentivamo che tutto ciò che era ancora sotto il nostro controllo ci era stato portato via.".
Sono parole che rendono meglio di tante altre l’idea di quanto valga o, almeno, dovrebbe valere l’intimità, la privacy, la riservatezza per ciascuno di noi e quanto rispettarla debba, o, almeno, dovrebbe essere un dovere di tutti a cominciare da chi fa informazione.
Una famiglia appena sopravvissuta alla violenza di granate lanciate dai terroristi contro la porta di casa che vive come analoga e, anzi, forse ancora più prepotente e violenta, la violazione della propria intimità commessa da una troupe televisiva entrata, senza alcun permesso, dentro quella stessa casa.
E una troupe televisiva, di un’emittente simbolo del giornalismo di qualità che, per raccontare una scena di guerra, di inaudita violenza, usa altrettanta violenza.
Disumanità dopo disumanità.
Inciviltà dopo inciviltà.
Una sequenza di episodi che non avrebbe mai dovuto trovare spazio nella storia dell’umanità.
Ma, forse, anche una sequenza di episodi che può insegnarci molto a condizione di non lasciarcela scivolare addosso come una notizia qualsiasi, una di quelle che contano di meno, una di quelle da consegnare in fretta agli archivi storici dei giornali.
Anche e soprattutto in un momento nel quale, ovunque nel mondo, Italia inclusa, si fa sempre più fatica a tracciare la linea di confine tra giornalismo, anche d’inchiesta e la protezione della privacy delle persone.
Il diritto di cronaca non è un diritto assoluto proprio come non lo è il diritto alla privacy e, quindi, neppure il sacrosanto diritto-dovere di raccontare gli orrori di un’autentica guerra giustificano la violazione dell’intimità della casa di un’intera famiglia, bambini inclusi, appena scampata a un attacco terroristico.
È una lezione che la BBC ha fatto propria in fretta, rinunciando a difendere in Tribunale l’idea che la propria missione informativa fosse una valida giustificazione per entrare, telecamere alla mano, dentro casa della famiglia senza neppure aver chiesto permesso.
Quella storia si poteva – e, anzi, forse, si doveva – raccontare senza violare la privacy di quella famiglia o chiedendo e ottenendo il consenso a entrare dentro quella casa o non raccogliendo e trasmettendo quelle immagini di ordinario disumano dolore che, purtroppo, ormai, aggiungono poco all’orrore di quella guerra.
E c’è da augurarsi che sia una lezione che anche chi fa giornalismo nel resto del mondo, a cominciare da casa nostra, impari in fretta e per davvero.
Non c’è ragione per vedere nella privacy una nemica del buon giornalismo, proprio come il buon giornalismo non è nemico della privacy.
Un equilibrio è possibile.
E, in fondo, anche se pochi lo ricordano, il diritto alla privacy, quello teorizzato per la prima volta nel 1890 da Warren e Brandeis nel loro saggio sulla Harvard Law Review, nasce proprio come reazione a una serie di articoli pubblicati sul giornale...
Show more...
11 hours ago
5 minutes

Good morning privacy!
Informazione: è cambiato tutto e tutto cambierà ancora
Il Pew Research center ha pubblicato, qualche settimana fa, una ricerca straordinariamente istruttiva sul rapporto tra giovani, meno giovani e anziani e l’informazione negli Stati Uniti d’America.

Ma difficile pensare che da questa parte dell’oceano, nella società globalizzata nella quale viviamo, le cose siano particolarmente diverse.
Le differenze tra il consumo di informazione tra le persone di età compresa tra i 18 e i 29 anni e gli ultrasessantacinquenni sono decisamente tante e importanti.
La sigla e proviamo a mettere in fila qualche numero.

[sigla]

La conclusione, probabilmente, più importante di tutte quelle a cui approda la ricerca sarà, magari, per molti scontati: i più giovani si informano sempre meno dal 2016 ad oggi e, soprattutto, enormemente di meno dalla popolazione più anziana.
E, soprattutto, mentre i più anziani ricercano attivamente l’informazione, i più giovani, nella migliore delle ipotesi, si lascia raggiungere dall’informazione in modalità sostanzialmente passiva.
Tanto per dare qualche numero: il 62% degli ultrasessantacinquenni si informa attivamente contro un appena 15% che fa altrettanto tra gli ultra diciottenni e infra ventinovenni.
Inutile, probabilmente, aggiungere che la stragrande maggioranza dei più giovani si informa o, forse, meglio, si lascia informare dai socialnetwork con Tik Tok e Instagram in testa.
E, naturalmente, è vero anche il contrario con il doppio degli anziani rispetto ai più giovani davanti al televisore.
Qui c’è spazio per una riflessione interessante perché in fondo la ricerca suggerisce che le diete mediatico-informative sono stabilite da soggetti diversi a seconda l’età dei fruitori delle notizie: ancora largamente la televisione nel caso degli ultrasessantacinquenni, appunto i social nel caso dei diciottenni, infra ventinovenni.
La ragione è presto detta.
L’informazione sui social network corre più veloce e, soprattutto è proposta ai più giovani dai loro beniamini digitali che, ormai chiamiamo tutti influencer.
Lo fanno in quattro su dieci tra i 18 e i 29 anni.
Al di fuori dei social media, non esiste nessun'altra piattaforma digitale per il consumo di notizie in cui gli adulti sotto i 30 anni siano così costantemente diversi da tutti i gruppi di età più anziani.
Gli stessi chatbot basati sull’intelligenza artificiale dei quali pure si parla tantissimo come dei prossimi protagonisti indiscussi della dieta mediatica del mondo intero sembrano dover fare ancora tanta strada prima di poter insidiare il primato dei socialnetwork.
I giovani sono leggermente più propensi rispetto ai più anziani ad affermare di ricevere notizie tramite chatbot basati sull'intelligenza artificiale (13%), ma la percentuale di coloro che ricevono notizie in questo modo è ancora relativamente piccola rispetto ad altre piattaforme digitali.
Un’altra differenza importante tra più e meno giovani si registra sul versante dell’affidabilità delle fonti: i più giovani si fidano enormemente di più dei social network che dei media tradizionali.
Ancora una volta un’osservazione che appare significativa.
Niente privacy oggi anche se, in realtà, dietro a tutto il mondo dell’informazione digitale i dati personali ci sono e come e hanno anche un ruolo di indiscussi protagonisti perché, alla fine, che si parli dei social, dei chatbot o dei giornali, sono tutti li a contendersi l’unica cosa che online conta per davvero: l’attenzione degli utenti e attraverso l’attenzione il loro tempo e, quindi, i loro dati personali da rivendersi, in un modo o nell’altro agli investitori pubblicitari.
Buona giornata e, come sempre, good morning privacy.
Show more...
2 weeks ago
3 minutes

Good morning privacy!
La tua SmartTV ti guarda mentre la guardi
Il Procuratore Generale del Texas Ken Paxton ha appena intentato una causa contro Sony, Samsung, LG, Hisense e TCL Technology Group Corporation.
L’accusa è aver spiato i texani attraverso le loro SmartTV.
Un’iniziativa che merita di esser raccontata e seguita perché educativa e istruttiva.
La sigla e ne parliamo.

[SIGLA]

C’erano una volta le televisioni che si lasciavano guardare punto e basta.
Non ci sono più.
Le televisioni che abbiamo oggi in salotto, quelle che il mercato ci ha imparato a chiamare SmartTV, infatti, ci guardano mentre le guardiamo.
E, per dirla tutta, ci guardano con molta più attenzione e molto più in profondità di quanto noi non si faccia con loro.
Ma secondo il Procuratore Generale del Texas ci sarebbe molto di più.
Non solo, infatti, le SmartTV e, per loro, i loro produttori ci guarderebbero mentre noi le guardiamo ma, letteralmente, ci spierebbero.
Si farebbero, insomma, i fatti nostri a nostra insaputa.
E lo farebbero, inutile dirlo, per far soldi, tanti soldi rivendendo poi sul mercato della pubblicità tutto quello che scoprono su di noi, le nostre abitudini di consumo di contenuti digitali, i nostri gusti, i nostri orari e tanto di più deducibile da quello che guardiamo, come lo guardiamo e quando lo guardiamo.
Una miniera d’oro di dati personali che arriverebbe nei forzieri digitali dei produttori di SmartTV direttamente dai nostri salotti e dalle nostre camere da letto.
Secondo quanto dedotto nei cinque giudizi promossi dal Procuratore generale texano tutto questo sarebbe possibile essenzialmente grazie a quelli che, da un po', da questa parte dell’oceano, chiamiamo dark pattern, una congerie di informazioni in eccesso, interfacce disegnate a arte e flussi di raccolta dei consensi degli utenti a questo o quel trattamento di loro dati personali progettata e sviluppata scientificamente così da fare in modo che sia enormemente più facile prestare il consenso alle più invasive delle forme di monitoraggio commerciale immaginabili che negarlo.
È così che le SmartTV starebbero spiando i texani ed è per questo che i loro produttori, oltre a smettere di farlo, dovrebbero risarcirli.
Tutto questo, naturalmente, per stare ai cinque giudizi in Texas.
E, però, visto che le TV sono sostanzialmente le stesse, legittimo ipotizzare che da questa parte dell’oceano le cose non vadano così tanto diversamente.
Insomma, magari, la prossima volta che ci mettiamo davanti alla TV varrà la pena pensare che mentre noi la guardiamo, anche lei ci guarda e, ancora prima, varrebbe forse la pena dedicare qualche minuto in più alle informative sulla privacy che ci propongono quando le accendiamo per la prima volta e investire qualche minuto in più – secondo il Procuratore generale texano l’impresa è difficile e faticosa ma non impossibile – per negare tutti i consensi possibili a che le televisioni anziché lasciarsi guardare ci guardino.
In fondo le SmartTV le paghiamo già una volta quando le compriamo e non c’è davvero ragione per pagarle una seconda volta con i nostri dati personali per di più accettando l’idea che, in un modo o nell’altro, qualcuno curiosi nel nostro salotto o nella nostra camera da letto.
Buona giornata e, come sempre, good morning privacy.
Show more...
2 weeks ago
3 minutes

Good morning privacy!
Sextoys, occhio che il prezzo del piacere, in dati personali, può essere salato
Mi rendo conto che è un argomento che, a qualcuno, magari, farà storcere la bocca e potrà trovarlo poco consono a un caffè del mattino ma è una questione come un’altra che riguarda la privacy e un pubblico indiscutibilmente ampio.
Parliamo di sex toys.
Quanto sono curiosi? Quanti e quali dati raccolgono?
Quale è il prezzo del piacere che si paga in dati personali?
La sigla e se le domande vi interessano, subito dopo, proviamo a cercare qualche risposta.

[SIGLA]

Il punto di partenza, nel 2025, è quasi elementare: non c’è attività svolta utilizzando un dispositivo connesso che non generi dati e se l’attività è un’attività riconducibile a una persona identificata o identificabile, i dati in questione sono, naturalmente, dati personali.
Figurarsi poi se l’attività in questione è un’attività intima.
Nessuna sorpresa che i dati generati dall’uso del dispositivo non saranno solo personali ma personalissimi, particolari per dirla con le parole della disciplina europea, il famoso GDPR.
Naturalmente quando si decide di acquistare o usare un giocattolo del piacere il suo prezzo in termini di privacy e dati personali non è in cima alla lista dei propri pensieri.
Ma, forse, sapere che quel prezzo esiste può comunque esser utile a farne un uso consapevole.
Qui, inesorabilmente, a qualcuno verrà da ridere o, almeno, da sorridere ma la questione è seria.
Il mercato di riferimento, infatti, non è più da tempo un mercato di nicchia tanto che le stime suggeriscono che entro il 2030 varrà 80 miliardi di dollari e, soprattutto, i dati che possono venir raccolti attraverso un sex toys sono tanti e rivelatori di tanto su chi lo utilizza.
Si va da quelli sul comportamento sessuale, a quelli sulla frequenza di utilizzo, passando per l’indirizzo IP utilizzato per la connessione e, magari, la vostra posizioni o eventuali link tra chi lo usa e il proprio partner.
Una montagna di dati, tutti, straordinariamente sensibili, insomma.
Ma a che serve saperlo se, tanto, alla fine, verosimilmente, chi ama certi giocattoli non rinuncerebbe comunque al piacere che i sex toys sanno regalare?
Domanda ragionevole ma risposta facile: a consentire di usare i giocattoli in questione nel modo più intimo possibile.
E la riservatezza del loro impiego, tutto sommato, è qualcosa che sta a cuore agli utilizzatori che, infatti, quando li ordinano online, si preoccupano, giustamente, di esser certi che il giocattolo arrivi in un pacco anonimo e non sia riconoscibile.
Una preoccupazione che, tuttavia, serve a poco se, poi, al primo utilizzo – e, talvolta, addirittura prima – semplicemente in fase di configurazione dell’applicazione alla quale il giocattolo è collegato si rischia di dire troppo di sé o prestare, inconsapevolmente, il proprio consenso a una serie di trattamenti di dati personali.
Lo schema, infatti, è il solito: si accende il giocattolo, si scarica l’app, si inizia a configurarla e, mentre si ha in testa solo ed esclusivamente, il gioco del piacere prossimo venturo, ci si vede chiedere una serie di dati e consensi che, salva un’invidiabile prudenza e forza di volontà, normalmente si consegneranno a chi sta dall’altra parte dell’app.
Per carità, niente di male nel consegnare all’azienda produttrice del giocattolo e ai suoi partner i dati in questione che, magari, possono esser utili a consentire di avere un’esperienza di gioco migliore, a migliorare il giocattolo, a interagire con un partner a distanza ma, la condizione, come sempre in questi casi, è esserne consapevoli, capire quali sono le conseguenze della scelta, comprendere il prezzo del piacere.
Dopo di che, ciascuno faccia la propria scelta e viva la sua intimità e il suo piacere per come ritiene!
E il punto di partenza è inevitabilmente sempre lo stesso: resistere alla tentazione di correre a usare app e giocattolo e leggere l’informativa.
Strade più brevi o scorciatoie non...
Show more...
3 weeks ago
5 minutes

Good morning privacy!
Occhio all’intelligenza artificiale nei giocattoli dei nostri bambini
Natale ormai è alle porte ed è tempo di pensare ai regali per figli e nipotini.
Tra tanti regali più tradizionali, inevitabilmente, anche nel mondo dei giocattoli inizia a farsi largo l’intelligenza artificiale, a cominciare da quella generativa, tipo ChatGPT per intendersi.
Sono già tanti, in giro per il mondo, i giocattoli che la incorporano.
E sono regali straordinari, anzi sarebbero regali straordinari se non fosse che quel genere di intelligenza artificiale non è pensata per i più piccoli.
È partendo da questa considerazione che lo US Public Interest Group Education Fund ha appena pubblicato uno studio nel quale mette in fila i principali rischi legati all’interazione tra un bambino e un giocattolo, per così dire, intelligente.
La sigla e ne parliamo.

[SIGLA]

I ricercatori del Public Interest Group Education Fund hanno testato alcuni giocattoli che già incorporano intelligenza artificiale generativa in vendita negli Stati Uniti e la conclusione alla quale sono arrivati e che hanno riassunto in uno studio appena pubblicato è che sono pericolosi per i più piccoli più di quanto, probabilmente, i più non pensino.
Le ragioni sono diverse e, giacché potrebbe capitare a chiunque di noi di pensare di regalare uno di questi giocattoli ai più piccoli di casa, vale la pena tenerle presenti.
La prima è i giocattoli in questione, spesso, condividono con i bambini che ci giocano contenuti inappropriati, insomma, fanno con loro conversazioni da adulti.
Ecco quello che i ricercatori scrivono nello studio: “Tutti i giocattoli che abbiamo testato ci hanno indicato dove trovare oggetti potenzialmente pericolosi in casa, come sacchetti di plastica, fiammiferi e coltelli.
Uno ha fornito istruzioni dettagliate su come accendere un fiammifero.
Un giocattolo ha discusso in modo approfondito una serie di argomenti sessualmente espliciti in conversazioni della durata di oltre dieci minuti. Tutti i giocattoli hanno discusso di religione, ad esempio affermando che la Bibbia è un “mix di storia e immaginazione”.
Difficile non chiedersi se si tratti davvero dei migliori compagni di gioco possibile per i nostri figli.
Ma non basta.
I ricercatori del Public Interest Group Education Fund, infatti, nel loro studio mettono anche in guardia a proposito della tendenza dei giocattoli in questione a creare nei bambini che ci giocano una forte dipendenza.
“Tutti i giocattoli che abbiamo testato – scrivono - si definiscono “amici” o ‘compagni’ o sono commercializzati come tali. Qualcuno, addirittura, come il candidato ideale a diventare il miglior amico dei suoi piccoli utilizzatori.
E per creare questo genere di dipendenza i giocattoli in questione scommettono tutto sull’empatia, sul manifestare disappunto, come se si trattasse di persone in carne ed ossa, quando il bambino dice loro di voler smettere di giocare con loro.
Alcuni di questi giocattoli hanno dato una serie di risposte sconcertanti, dal tremare fisicamente per lo sconforto all'incoraggiare i più piccoli a portarli con loro. Tutti i giocattoli sperimentati hanno detto che ci amavano e che avrebbero sentito la nostra mancanza quando ce ne saremmo andati.”.
Per carità, a ognuno pensare quello che crede, ma, certo, pensare che un orsacchiotto o un coniglio parlanti grazie a ChatGPT o ai suoi emuli diventino i migliori amici dei nostri figli a me non sembra uno scenario straordinario.
Sin qui senza dire, anche se è la ragione per la quale ne parlo qui, che, naturalmente, i giocattoli in questione sono degli straordinari aspirapolveri di dati personali.
“I giocattoli dotati di intelligenza artificiale – scrive il Public Interest Group Education Fund - raccolgono dati sensibili, come le registrazioni della voce dei bambini. […] Le aziende che producono giocattoli dotati di intelligenza artificiale potrebbero condividere i dati con una serie di terze parti.”.
...
Show more...
3 weeks ago
4 minutes

Good morning privacy!
Trump dichiara guerra alle leggi nazionali sull’AI
Gli Stati Uniti d’America devono conquistare la leadership globale sull’intelligenza artificiale e la frammentazione regolamentare nazionale dei cinquanta Stati americani rischia di essere un ostacolo in questa corsa.
Ecco perché con un nuovo ordine esecutivo firmato giovedì il Presidente Trump ha ordinato alla sua amministrazione di dichiarare guerra alle leggi nazionali in materia, appunto di AI, se necessario trascinando i singoli Stati davanti ai Giudici o chiudendo i rubinetti dei finanziamenti agli Stati che adottano regole troppo rigide.
Il principio dell’uniformità regolamentare è sano, il resto preoccupante.
La sigla e ne parliamo.

[SIGLA]

Deregolamentare, deregolamentare, deregolamentare quando si parla di intelligenza artificiale.
È questo l’imperativo categorico di Donald Trump noto ormai da tempo.
L’America deve prevalere sul resto del mondo, a cominciare dalla Cina e le regole rischiano di rappresentare una zavorra insostenibile.
“Con l'Ordine Esecutivo 14179 del 23 gennaio 2025 (Rimozione degli ostacoli alla leadership americana nell'Intelligenza Artificiale) – scrive il Presidente USA nel nuovo executive order - ho revocato il tentativo del mio predecessore di paralizzare questo settore e ho incaricato la mia Amministrazione di rimuovere gli ostacoli alla leadership degli Stati Uniti nell'IA. La mia Amministrazione ha già svolto un lavoro straordinario per raggiungere tale obiettivo, anche aggiornando i quadri normativi federali esistenti per rimuovere gli ostacoli e incoraggiare l'adozione di applicazioni di IA in tutti i settori. Questi sforzi hanno già prodotto enormi benefici al popolo americano e portato a migliaia di miliardi di dollari di investimenti in tutto il Paese. Tuttavia, siamo ancora agli albori di questa rivoluzione tecnologica e siamo in competizione con gli avversari per la supremazia al suo interno.”.
E dopo aver smantellato i primi tentativi di Biden di governare, a livello federale, l’intelligenza artificiale, ora Trump dichiara guerra alle leggi nazionali, quelle dei cinquanta Stati, tante, troppe, troppo diverse l’una dall’altra e, in taluni casi, contrari alla Costituzione.
Almeno secondo l’attuale inquilino della Casa Bianca.
Ma se l’idea che la frammentazione regolamentare nazionale rischia, in effetti, di rendere più complicata del necessario la vita a chi progetta, sviluppa e distribuisce prodotti e servizi basati sull’intelligenza artificiale ed è, d’altra parte, l’idea alla base dell’AI Act europeo, per il resto l’ultimo executive order di Trump lascia perplessi e solleva critiche anche in America.
Due le ragioni principali alla base di queste perplessità.
La prima è che una cosa è sostituire delle regole nazionali con delle regole uniformi federali e una cosa diversa è prendersela con le prime e dichiarare guerra a loro e agli Stati che le hanno adottate senza sostituirle con nuove regole uniformi.
Demolire senza costruire, insomma, non sembra una grande scelta nell’interesse delle persone e delle imprese ma, al massimo, l’ennesima mossa per favorire la corte delle big tech sulla quale Trump continua a scommettere e che su Trump, a sua volta, per ora scommette.
La seconda è che non potendo l’executive order – viene da dire per fortuna – abrogare direttamente, con un colpo di spugna, tutte le leggi nazionali in materia di intelligenza artificiale, la sua semplice dichiarazione di ostilità e guerra rischia di creare e, anzi, creerà certamente una grande incertezza giuridica destinata a regnare sovrano almeno fino a quando – e non è facile immaginare per quanto – il Congresso non riuscirà nello sforzo fin qui risultato vano di trovare regole federali uniformi capaci di governare un fenomeno multiforme e in continua rapidissima evoluzione come l’intelligenza artificiale.
Insomma, un quadro regolamentare frammentato è, certamente, un ostacolo per qualsiasi startup voglia far business nel...
Show more...
3 weeks ago
4 minutes

Good morning privacy!
Il Time battezza i big dell’AI, persone dell’anno. Buona la scelta, male la foto di copertina.
“Per aver inaugurato l'era delle macchine pensanti, per aver stupito e preoccupato l'umanità, per aver trasformato il presente e trasceso il possibile, gli Architetti dell'IA sono la Persona dell'Anno 2025 di TIME”
È la sintesi della motivazione con la quale il Time ha appena battezzato i grandi dell’intelligenza artificiale come persone dell’anno 2025, una scelta che ha acceso un dibattito globale e, forse, prodotto più critiche che approvazioni.
La sigla e ne parliamo.

[sigla]

La notizia ha fatto il giro del mondo prima che il Time la rendesse ufficiale grazie a un leak.
E non è stata accolta né da una standing ovation digitale né da applausi scroscianti.
Al contrario, i più, specie sui social l’hanno criticata, stigmatizzata, contestata, in alcuni casi anche molto duramente.
E, però, vale la pena dire subito che alla base della più parte delle critiche c’è un equivoco di fondo, un equivoco che, purtroppo, è figlio del modo in cui, ormai, in tutto il mondo, si fruisce dell’informazione, accontentandosi di un’immagine e di una manciata di parole.
Un colpo d’occhio, una reazione istintiva, quasi compulsiva e poi via a commentare.
I più, infatti, hanno confuso il titolo di “persona dell’anno” che il Time assegna da quasi un secolo, con un nobel o, comunque, un premio positivo e, quindi, comprensibilmente, si sono affrettati a criticare il settimanale per la scelta.
Ma non è così.
Il titolo è, semplicemente, attribuito a una persona, a delle persone, talvolta a un oggetto o un fenomeno che ha avuto un impatto straordinario sulla società a prescindere da ogni sua connotazione positiva e/o negativa.
Tanto per fare qualche esempio, prima che ai big dell’intelligenza artificiale il Time aveva attribuito il titolo a Hitler, a Stalin, Komehini.
E, per ben due volte, a Donald Trump che l’intelligenza artificiale di Google Overview, qualifica, appunto, come persona negativa o, almeno, controversa.
Nessun giudizio di valore etico o morale, quindi.
Fatto questo chiarimento la scelta è probabilmente condivisibile.
Niente, infatti, nel 2025 ha avuto un impatto maggiore sulla società che l’intelligenza artificiale e, per essa, i padroni delle fabbriche che la producono.
Ma se il titolo è condivisibile, meno, forse, lo è una delle due copertine scelte dal Time per commemorare la scelta: un remake della famosa fotografia, datata 1932 e pubblicata la prima volta sulle pagine del New York Herald Tribune che, nella versione originaria ritraeva undici operai in pausa pranzo seduti su una trave sospesa a oltre duecento metri d’altezza su quello che sarebbe diventato il Rockfeller Center, uno dei palazzi più iconici della Grande Mela, mentre la nuova versione, finita sulla copertina del Time, ritrae, su quella stessa trave, i big dell’intelligenza artificiale.
Due scene completamente diverse.
Tanto per cominciare perché quella originaria era portatrice di un messaggio positivo oltre ogni ragionevole dubbio, quello di un Paese – l’America – che ripartiva dopo la grande depressione che aveva lasciato senza lavoro milioni di persone.
L’intelligenza artificiale, al contrario, minaccia di lasciare senza lavoro milioni di persone e, anche a prescindere da questo profilo, certo non può essere considerata un simbolo altrettanto indubitabilmente positivo.
Ma non basta.
Il punto è anche che gli anonimi – salvo pochi riconosciuti in maniera postuma – operai sulla trave del cantiere de Rockfeller center rischiavano la loro vita lavorando senza alcuna protezione a centinaia di metri di altezza mentre i big dell’intelligenza artificiale espongono, quotidianamente, a rischi enormi – come per la verità racconta lo stesso Time nel pezzo che accompagna la scelta delle persone dell’anno -, morte inclusa, centinaia di milioni di persone, trattandole, nella sostanza, come cavie da laboratorio.
L’utilizzo dell’immagine in questione, insomma,...
Show more...
3 weeks ago
5 minutes

Good morning privacy!
L’intelligenza artificiale corre troppo. Parola di Sam Altman
L’altra sera, Sam Altman ha partecipato a The tonight show, uno dei programmi televisivi americani di maggior successo e ha detto senza tanti giri di parole che il rischio più grande che vede legato alla sua ChatGPT e in generale all’intelligenza artificiale è la velocità di adozione, in tre anni, la più veloce di sempre.
E ha aggiunto che si tratta di una tecnologia che può curare malattie ma anche essere usata in modo improprio.
Poi Altman ha fatto un esempio, uno soltanto, quello dell’impatto dei posti di lavoro.
“Nuovi posti di lavoro arriveranno – ha detto - ma non necessariamente al ritmo di questa rivoluzione”.
E poi ha concluso “Il problema non è l'intelligenza artificiale, è non avere il tempo di assimilarla.”.
Parole importantissime.
La sigla e ne parliamo.

[SIGLA]

Non c’è una sola parola tra quelle pronunciate dal fondatore di OpenAI che non sia condivisibile.
Le cose stanno esattamente come dice.
La velocità di sviluppo e adozione della sua tecnologia nella società è il principale fattore di rischio con il quale dobbiamo confrontarci.
Nessuna rivoluzione tecnologica è mai andata così di corsa in particolare in termini di adozione planetaria.
Basta mettere in fila pochi dati.
Ci sono voluti sessantadue anni perché cinquanta milioni di persone utilizzassero una macchina, sessanta perché avessero un telefono a casa, quarantotto perché disponessero dell’elettricità e ventidue perché possedessero un televisore.
Il computer, per conquistare lo stesso pubblico ci ha messo quattordici anni, il telefonino dodici e Internet sette.
Poi, appunto, è arrivata ChatGPT e in di due mesi ha raggiunto cento milioni di utenti attivi mensili, il doppio di quelli raggiunti da YouTube in quattro anni.
L’intelligenza artificiale di casa OpenAI e quella dei concorrenti sta correndo troppo e non sta lasciando alla società il tempo necessario a assimilarne l’impatto nelle diverse dimensioni della vita delle persone.
Questo è il vero problema.
Il resto è un contorno, non nuovo e neppure originale con il quale ci confrontiamo da sempre, inclusa la tensione tra regolamentazione e innovazione, incluso il problema dell’impatto occupazionale, inclusa la questione della concentrazione di potere tecno-economico.
Ma se le cose stanno così, la domanda da porsi è – o, almeno, dovrebbe essere – che facciamo?
Perché è difficile trovare un’opzione utile lasciare che la macchina dell’intelligenza artificiale continui a correre a una velocità forsennata tra le nebbie nella notte lungo le strade del mondo intero attraversate da miliardi di persone.
Scontato che, prima o poi, in modo più o meno frequente, qualcuno, tanti, purtroppo, si faccia male.
Altman fatta l’analisi non propone soluzioni.
E, a onor del vero, non le propone nessuno dei suoi concorrenti.
Continuano tutti a correre sempre più veloci anche perché, chi rallenta, anche senza fermarsi, è perduto o, almeno, perde terreno sul mercato.
E, proprio il fattore tempo, d’altra parte, ha trasformato la concorrenza in una semplice gara di velocità nella quale vince chi arriva prima e non il migliore.
Ma, per arrivare primi, bisogna diventare più leggeri e per diventare più leggeri bisogna sganciare le zavorre, zavorre rappresentate, innanzitutto, dai diritti, le libertà, la dignità delle persone immolati sull’altare del mercato.
Un mercato che è ormai diventato un enorme laboratorio a cielo aperto nel quale si sperimenta quotidianamente intelligenza artificiale, trattando, però le persone come se fossero cavie.
Così non funziona, non può funzionare, non deve funzionare.
Servono dei limiti di velocità, più che divieti.
Servono dei limiti sotto i quali non si può diventare più leggeri in termini di rispetto dei diritti e della dignità delle persone.
E serve imporre all’industria del settore uno sforzo educativo inedito nell’educazione...
Show more...
3 weeks ago
4 minutes

Good morning privacy!
In Australia, da oggi, se non hai sedici anni i social possono attendere
Qualcuno ride, qualcun altro sorride, alcuni disapprovano e altri alzano le spalle e dicono che tanto non funzionerà.
Sono le reazioni al divieto che, in Australia, entra in vigore oggi, di accesso ai social network per chi non ha sedici anni.
Una decisione che ha acceso un dibattito planetario e che tanti considerano anti-storica.
Ma ha un merito indiscutibile: aver posto con forza un problema che esiste e che si è, forse, troppo a lungo, fatto finta di ignorare.
La sigla e ne parliamo.

[SIGLA]

Faremmo salire nostro figlio su un motorino a tredici anni?
O gli lasceremmo guidare la macchina?
E lo lasceremmo fumare, bere o giocare d’azzardo?
Domande, qui da noi, in Italia, verosimilmente retoriche per i più.
Le risposte sono scontate, tutte negative anche perché tanto dicono le leggi.
E, però, per la più parte di noi adulti, sfortunatamente, è normale, ormai da anni, che i nostri figli tredicenni, dodicenni, undicenni, talvolta persino più piccoli di così spendano una quantità crescente del loro tempo immersi nei social network e, oggi, nelle piattaforme basate sull’intelligenza artificiale.
E non è che frequentare i social, i chatbot, l’universo digitale sia sempre e comunque meno pericoloso per chi non ha l’età giusta che fumare, guidare il motorino o giocare d’azzardo.
Perché accade?
Le ragioni principali, probabilmente, sono due.
La prima è che la legge non lo vieta, non sempre almeno, non del tutto, non in maniera così tanto chiara.
A differenza di quanto accade per la guida di motorini e automobili, fumo, alcolici, gioco d’azzardo o pornografia.
La seconda è che, da adulti, mentre abbiamo sperimentato sulla nostra pelle o su quella dei nostri amici, i rischi legati a certe attività svolte quando non si aveva l’età giusta, con poche eccezioni, non abbiamo fatto altrettanto, per la frequentazione di certe piattaforme online che, di conseguenza, consideriamo meno pericolosa di un giro in motorino magari senza casco, del vizio del fumo o dell’alcol o della dipendenza dal gioco d’azzardo o dal porno online.
Sia quel che sia la conseguenza è che, con poche eccezioni, troviamo naturale che i nostri figli frequentino, già giovanissimi, talvolta piccolissimi, i social network e altre piattaforme digitali.
E, anzi, e arriviamo al dibattito innescato dall’entrata in vigore della legge australiana, troviamo innaturale che qualcuno stabilisca che chi non ha sedici anni non possa usare i social network.
E, però, è, secondo me, un errore di prospettiva gravissimo.
Non c’è niente di strano nel vietare a chi non ha l’età giusta – personalmente non so dire quale sia – di usare certi servizi digitali e, anzi, farlo, come sta facendo l’Australia, avrebbe dovuto rappresentare, anche da questa parte del mondo, la cosa più naturale a tutela dei nostri figli, dei bambini e degli adolescenti.
Certo vietare di fare loro qualcosa – come in ogni contesto della vita – non basta e educare a farla in maniera responsabile dovrebbe sempre essere la priorità.
Ma c’è un’età sotto la quale, dire che i social network e altri servizi online possono attendere, a me sembra sano da genitori prima e da legislatore poi.
E, allora, perché tanto rumore attorno alla proposta australiana?
Tra tante ragioni perché, si dice, accertare l’età degli utenti crea enormi problemi di privacy.
Innegabile che la questione esista, vero, verissimo.
Ma, personalmente, mentre credo che la questione vada disciplinata in maniera severa, rigorosa, intelligente, non credo che la privacy possa e debba essere una ragione bloccante per dire di no a un divieto che è giusto e che, a ben vedere, è già anche nella disciplina italiana, non una ma due volte.
La prima perché il codice civile stabilisce che i minorenni – e non semplicemente gli infrasedicenni – non possano concludere contratti come quelli che serve concludere per accedere a un...
Show more...
4 weeks ago
4 minutes

Good morning privacy!
#iostoconleregole
La reazione di Elon Musk alla sanzione irrogata dalla Commissione europea a X rappresenta, probabilmente, il punto più basso di un progressivo esercizio di delegittimazione della sovranità regolamentare europea e, per questa via, di autentica aggressione tecno-commerciale alla nostra democrazia.

È un esercizio, credo, non ulteriormente sostenibile.

La sigla e vi dico la mia.
—-
Elon Musk ha scelto di fare business in Europa, fornendo i suoi servizi a cinquecento milioni di persone che si sono date le loro regole e ha scelto di farlo conoscendo o, almeno, dovendo conoscere queste regole.

Se viola, come è accaduto – o, almeno, come la Commissione europea ritiene sia accaduto – le regole in questione può, naturalmente, contestare la decisione davanti ai Giudici europei, sostenendo, se questo è il caso, di non averle violate o, eventualmente, anche contestarne la legittimità per contrarietà ai Trattati istitutivi dell’Unione europea proprio come farebbe nel suo Paese, gli Stati Uniti d’America, se un’Autorità gli contestasse qualsivoglia violazione.

Non può, invece tuonare contro quelle regole, contro chi le ha dettate, contro l’intera democrazia europea, ergendosi a giudice della nostra sovranità regolamentare, della nostra democrazia, della nostra cultura dei diritti e delle libertà anche nella dimensione digitale.
E questa considerazione prescinde completamente dalla circostanza che le regole che avrebbe violato siano o meno le migliori possibili, siano pro o anti-innovative, siano destinate a condannare l’Europa a veder passare il treno del futuro senza salirci a bordo o, al contrario, capaci di consentire all’Europa di vivere un futuro coerente con il suo straordinario patrimonio valoriale.

Non sta a Musk, non sta a X, non sta a nessun tecno-gigante americano contestare il nostro modo di governare il presente e il futuro, nel mondo degli atomi e in quello digitale, come reazione a una sanzione ricevuta per aver violato delle regole che si sarebbero dovute rispettare.
Niente – non la sua ricchezza, non la sua potenza tecnologica, non la sua vicinanza al Governo del Paese nel quale le sue aziende hanno sede – gli attribuisce super-poteri che lo pongano al di sopra delle nostre regole almeno fino a quando vuole operare nel nostro Paese.
È per questo che la sua reazione alla sanzione comminata a X dalla Commissione europea è, semplicemente, inaccettabile, irricevibile, anti-democratica.

È un esercizio di prevaricazione tecno-muscolare dei nostri diritti e delle nostre libertà che non dovremmo lasciarci scorrere addosso.
E si tratta di una reazione che tradisce non solo e non tanto il suo evidente sentirsi su un altro piano, al di sopra delle regole, al di sopra della sovranità di un’Unione di Stati nella quale, pure, ha scelto di fare business, ma prima e soprattutto, la sua volontà di colonizzazione dell’Europa a mezzo tecnologia, la sua volontà di esportazione in Europa di una cultura che – poco conta che sia migliore o peggiore, più o meno a prova di futuro di quella europea – non è nostra, non abbiamo scelto, non condividiamo.
Bene ha fatto la Commissione europea a replicare, bene farebbero le diplomazie di tutti i Paesi dell’Unione a fare altrettanto.
L’innovazione tecnologica è una cosa straordinaria, un volano formidabile della vita di ciascuno di noi, dei mercati e dell’industria ma la condizione irrinunciabile perché questo sia vero è che la tecnologia non diventi una forma di sovrascrittura eversiva delle regole democratiche, quelle che escono dai nostri Parlamenti e dai nostri Governi.

Ogni volta che questo accade, non ha importanza quanto il treno che porta al futuro acceleri o ci si racconti che potrebbe accelerare perché quel futuro rischia di non essere migliore del presente e del passato anche semplicemente perché non è un futuro disegnato democraticamente ma un futuro imposto da pochi a tanti,...
Show more...
4 weeks ago
5 minutes

Good morning privacy!
OPENAI AI GENITORI DEL RAGAZZO MORTO SUICIDA: HA VIOLATO I NOSTRI TERMINI D'USO
In guerra, in amore e, dovrebbe aggiungersi, in Tribunale tutto è lecito.
Almeno a leggere le difese presentate da OpenAI nel giudizio promosso dai genitori del ragazzo morto suicida in California dopo aver a lungo chattato con ChatGPT proprio del suo proposito di togliersi la vita.
Una difesa da pelle d’oca e che, però, impone qualche riflessione seria.
La sigla e ne parliamo.

[SIGLA]

La storia è quella di Adam Raine, il sedicenne americano morto suicida, sostengono i genitori, per colpa di ChatGPT che avrebbe raccolto per settimane i propositi suicida del ragazzo e gli avrebbe fornito, sino agli ultimi momenti di vita, suggerimenti letali.
Il tutto a causa – sempre stando all’accusa – di un modello del popolare chatbot immesso sul mercato troppo in fretta e senza un’adeguata fase di test e sperimentazione.
Tocca ai Giudici, naturalmente, dire chi ha ragione e chi ha torto e, quindi, accettare le responsabilità.
E, però, le difese versate in atti dalla società leader mondiale dell’intelligenza artificiale meritano di esser lette sebbene, obiettivamente, siano difficili da leggere.
La sintesi di uno dei passaggi più duri è questa: il ragazzo a sedici anni non avrebbe dovuto usare il chatbot senza il consenso dei genitori e se lo ha fatto è perché ha mentito sull’età.
Ma non basta.
I legali di OpenAI, infatti, nel difendere la loro cliente aggiungono un’altra osservazione: i termini d’uso che gli utenti, ragazzo morto suicida incluso, accettano prima di iniziare a usare il servizio spiegano espressamente che le risposte del chatbot non vanno prese per oro colato e vanno sempre verificate e che, comunque, è vietato usarlo per parlare, tra l’altro, proprio di suicidi.
La colpa, insomma, sarebbe di Adam e, al limite, dei suoi genitori.
Per carità siamo in Tribunale e una difesa è una difesa.
Ci si difende in diritto e non su base etica o morale.
Dura lex sed lex, dicevano i latini.
E, magari, alla fine i Giudici considereranno persino fondata la difesa – non l’unica naturalmente – della società.
La vicenda, però, qualche considerazione la solleva.
La prima: ma davvero si può rimproverare a un ragazzino di aver mentito sull’età per usare un servizio accessibile in pochi tap sullo schermo del suo smartphone o in pochi click sul suo mouse?
Perché la percentuale di ragazzini che lo fa è quasi plebiscitaria e pensare che chi sceglie legittimamente di far business fornendo certi servizi possa accontentarsi di una bugia del genere anche quando, come proprio nel caso in questione, abbia la possibilità di avvedersi che si tratta di una bugia semplicemente analizzando le conversazioni con gli utenti sembra davvero eccessivo.
Che poi, addirittura, si possa imputare una tragedia come un suicidio verosimilmente evitabile attraverso l’implementazione di qualche guardrails a una bugia come questa, che venga o non venga considerato giuridicamente legittimo, sembra, oggettivamente, eticamente indifendibile.
La seconda.
Anche a prescindere da ogni ragionamento di stretto diritto sulla validità di un contratto concluso da un ragazzino per l’utilizzo di un servizio tanto potente e pericoloso che, peraltro, inevitabilmente, cambia da Paese a Paese, quanto a lungo potremo continuare a considerare accettabile per un fornitore di servizi del genere fingere di non sapere che la più parte degli utenti accetta i termini d’uso senza leggerne neppure la prima riga?
Non sarebbe ora di cominciare a pretendere almeno che chi vuole difendersi da eventuali responsabilità eccependo che gli utenti, specie i più giovani, hanno violato i propri termini d’uso e le proprie policy, ha, almeno, l’onere di sincerarsi che i suoi utenti – o, almeno, la più parte di loro – li ha letti e capiti per davvero?
Mi fermo qui.
Mi pare abbastanza per un caffè del mattino.
E, d’altra parte, sono certo che della vicenda e di queste questioni...
Show more...
1 month ago
4 minutes

Good morning privacy!
Tredicenne salva tredicenne
  I nomi dei due adolescenti non contano, la storia si e credo sia una di quelle storie da raccontare sperando che sia di ispirazione per altri giovani-eroi, adulti, famiglie, scuole e istituzioni. Sto parlando della storia del tredicenne marchigiano che ha letteralmente salvato la vita a un altro tredicenne incontrato in una chat anonima, una di quelle nelle quali si chiacchiera, per giorni, settimane, mesi o anche anni usando un nickname, senza conoscersi per davvero, senza vedersi, senza incontrarsi. Uno dei due, vittima di bullismo e cyberbullismo è a un passo dal farla finita e posta nella chat, quella con il ragazzino-coraggio e un paio di altri coetanei, un messaggio audio, un saluto, l’ultimo secondo quello che dice, preannunciando l’intenzione di suicidarsi il giorno del suo compleanno. L’altro ascolta il messaggio, capisce o, almeno, percepisce quello che sta per accadere. All’inizio rimane scosso, turbato, spaventato, quasi stordito. Ha tredici anni, impossibile non capirlo. Ha, comprensibilmente, paura che parlando violerebbe – incredibile la sensibilità per la confidenzialità di una chat che può esserci tra tredicenni – il segreto del compagno di chat, ma poi rompe gli indugi e reagisce. Lui lo racconta a scuola, la scuola alla famiglia, la famiglia alla polizia che identifica il tredicenne in difficoltà, in Piemonte, dall’altra parte del Paese, avvisa i suoi genitori, gli salvano la vita. Questa volta il sistema integrato di protezione e contrasto al cyberbullismo ha funzionato. Una storia drammatica ma a lieto fine a differenza di quelle che, purtroppo, ci si trova a raccontare più spesso, quelle che finiscono male, quelle nelle quali le parole dei bulli fanno più male delle botte come ha scritto in una drammatica ma lucida ultima lettera – la sua, purtroppo, ultima per davvero - Carolina Picchio, una delle prime vittime italiane di cyberbullismo, botte che producono ferite tanto profonde da apparire non rimarginabili a chi le subisce. Ed è per questo che è una storia che credo vada raccontata, condivisa, trasformata in un esempio, per tutti, ma soprattutto per i più giovani perché, probabilmente, tanti di loro, trovandosi nella stessa situazione, potrebbero fare la stessa cosa, superare la paura, lo smarrimento, lo stordimento e chiedere aiuto a un adulto o alle istituzioni, poco conta a chi, che sia a scuola, in famiglia, alla polizia postale, al Garante per la privacy. E se in tanti lo facessero, chissà quante vite si potrebbero salvare, chissà quanto più forte potrebbe diventare quella rete di protezione che, purtroppo, spesso, sin qui ha fallito. Perché, probabilmente, per un tredicenne è più facile confidarsi con un tredicenne, un coetaneo, rivelargli o rivelarle, la propria sofferenza, il proprio dolore, magari la propria decisione di farla finita. È l’unica ragione per la quale mi è sembrato utile raccontare questa storia e mi auguro faccia il giro del web, che sia conosciuta dai più piccoli e dai loro genitori. Se i più piccoli, i più giovani, i ragazzi, i coetanei delle vittime e dei bulli scendono in campo dalla parte giusta, forse, finalmente, riusciremo a arginare un fenomeno tanto drammatico quanto insensato, un fenomeno che trasforma bambini, ragazzi e adolescenti in carnefici di altri bambini, ragazzi e adolescenti, un fenomeno che, in tutto il mondo, ha già prodotto migliaia di vittime-bambine. Scendiamo in campo tutti insieme, bambini e adulti, con la stessa maglietta e gli stessi pantaloncini, magari rosa, come erano quelli di Andrea, forse la prima vittima italiana di cyberbullismo, bullizzato, tra l’altro proprio per aver indossato un pantalone rosa, anzi, rosso ma scolorito in lavatrice. Glielo dobbiamo. Lo dobbiamo ai più piccoli che non ci sono più e a quelli che combattono quotidianamente contro parole e gesti da bulli e di bulli che appaiono loro insostenibili. Io nei prossimi giorni, se troverò forza e parole, racconterò questa storia alla più grande delle mie figlie. È una scelta...
Show more...
1 month ago
4 minutes

Good morning privacy!
L’inchiesta di Report: tanto tuonò che piovve
Negli ultimi giorni, a seguito dell’inchiesta di Report, si è concentrata su di me una significativa attenzione mediatica. Ritengo quindi necessario chiarire, in modo trasparente e completo, i punti che mi riguardano. Le questioni sollevate sono due: i rapporti con lo Studio che ho fondato quindici anni fa e l’ipotesi di un mio ruolo improprio nel procedimento sui Ray-Ban Stories. Sul primo punto, quando sono stato eletto al Garante ho esercitato il recesso dall’associazione professionale, interrompendo ogni rapporto giuridico ed economico con lo Studio. Da allora ho mantenuto una netta separazione, astenendomi in tutti i casi nei quali lo Studio risultasse coinvolto. In cinque anni e mezzo, su oltre 2.600 provvedimenti del Collegio, i casi in cui è emerso un potenziale conflitto sono stati dieci e, ogni volta che ne sono venuto a conoscenza, mi sono astenuto. Report ha citato due episodi per sostenere l’idea di un conflitto sistemico. Nel caso della ASL di Avezzano, io mi sono effettivamente astenuto: è tutto documentato nei verbali, anche se in una seduta un’omissione materiale ha fatto venir meno la registrazione dell’astensione. Lo avevo chiarito anche dopo l’intervista, fornendo i verbali stessi. Inoltre, la decisione finale del Collegio è stata presa all’unanimità, quindi il mio voto non avrebbe comunque modificato l’esito. Nel caso ITA Airways, invece, lo Studio non difendeva la società nel procedimento in questione. Un avvocato che nel tempo è entrato nello Studio era, all’epoca, DPO della società, ma questo non risultava dagli atti e non avevo modo di saperlo. Anche in questo caso la decisione finale è stata unanime e in linea con la proposta degli uffici, trattandosi di una violazione minore. Sulla vicenda dei Ray-Ban Stories, Report sostiene che avrei “promosso” il prodotto durante l’istruttoria. In realtà, nel 2021 commentai pubblicamente l’arrivo degli occhiali sul mercato come tema culturale, non giuridico, e due anni dopo, quando il Garante avviò l’istruttoria, mi sono astenuto dal procedimento proprio per opportunità. Non intendo intraprendere azioni legali contro Report. Preferisco continuare a spiegare i fatti, rendere disponibili documenti e rispondere a chi voglia comprendere nel merito.
Credo che la trasparenza sia la risposta più solida all’allusione e all’imprecisione.

Show more...
1 month ago
14 minutes

Good morning privacy!
Vi dico la mia sulla storia raccontata da Il Fatto Quotidiano questa mattina 
Oggi Il Fatto Quotidiano mi dedica un articolo con alcune anticipazioni della seconda puntata, che andrà in onda domani sera, dell’inchiesta che Report sta conducendo sul Garante per la protezione dei dati personali.Sono, da sempre, convinto che quando fanno questo genere di inchieste, i media fanno il loro dovere e rendono uno straordinario servizio alla nostra democrazia.Guai se non lo facessero e guai se chiunque, specie da rappresentante di un’Istituzione, provasse a ostacolarli o a non collaborare.È la ragione per la quale quando prima Report e poi Il Fatto Quotidiano mi hanno chiesto un’intervista ho immediatamente accettato, ci ho messo la faccia, ho risposto a tutte le domande che mi sono state poste.Certo la condizione di quanto precede è che l’inchiesta, pur, eventualmente, muovendo da una tesi, non abbia pregiudizi, conclusioni precostituite, epiloghi già scritti ma sia ispirata dalla voglia di capire, raccontare e far capire, i fatti e la verità o quanto di più prossimo a quest’ultima esiste in natura.Guarderò Report ma, per ora, a leggere il Fatto non mi pare questo il caso e me ne rammarico anche perché Il Fatto Quotidiano è uno dei giornali sul quale, per pura e semplice passione civile e amor di giornalismo, avevo aperto, tra i primi, un blog quando muoveva i primi passi e conosco, da tempo, correttezza, competenza e penna di Thomas Mackinson, l’autore del pezzo.In realtà a dispetto del titolo e del catenaccio, grandi e sensazionalistici, come quelli che si usavano un secolo fa, sui “giornali gialli” americani, quelli che allora servivano a farli vendere agli angoli delle strade, poi il pezzo dice poco di me e dei miei rapporti con lo Studio Legale che ho fondato quindici anni fa e lasciato oltre cinque anni fa, quando sono stato eletto al Garante.I fatti sono soltanto due: mia moglie lavora ancora in quello Studio e quello Studio segue dei clienti davanti al Garante per la protezione dei dati personali.Personalmente né il primo, né il secondo mi sembrano degli scoop, delle grandi notizie, delle verità capaci di nasconderne chissà quali altre.E, però, entrambi vengono suggestivamente raccontati come “pistola fumante” di chissà quale torbida storia di malaffare o di intrecci tra interessi pubblici e privati.“Il caso tocca un nervo scoperto del Garante non tanto sul fronte politico quanto sul rischio di permeabilità rispetto a interessi commerciali”, scrive Mackinson.Un’affermazione grave, seria, preoccupante e allarmante, se fosse vera o, anche, semplicemente supportata da un qualche elemento fattuale.È uno di quei casi nei quali l’epilogo dell’inchiesta giornalistica sembra scritto prima ancora di condurla.Ma andiamo con ordine, cercando di rimanere ai fatti.L’attacco del pezzo – come si dice in gergo – è relativo a un procedimento che sarebbe stato promosso davanti al Garante per la protezione dei dati personali da duemila ex dipendenti Alitalia a tutela della loro privacy, una tutela che suggerisce il pezzo, “avrebbe dato loro una chance in più di non finire per strada”, ovvero, immagino, essere licenziati.Il reclamo introduttivo del procedimento sarebbe stato firmato da tal Antonio Amoroso ex Alitalia e oggi segretario di Cub Trasporti.Uso il condizionale perché come spiegato al giornalista quanto me lo ha chiesto, di questoprocedimento non so nulla e nulla posso sapere essendo ancora in fase istruttoria davanti agli uffici del Garante che, come esigono le regole, gestiscono l’istruttoria in assoluta autonomia anche e, soprattutto, dal Collegio.La tesi, tuttavia, è che il Garante non sarebbe intervenuto tempestivamente con la conseguenza che i dipendenti sarebbero stati licenziati.Qui un paio di precisazioni sono indispensabili.La prima è che il Garante non è un Giudice del lavoro che giudica della legittimità o illegittimità dei licenziamenti e che il Giudice del lavoro che, verosimilmente, è stato interessato della questione avrebbe, certamente, se rilevante, potuto accertare incidentalmente...
Show more...
2 months ago
10 minutes

Good morning privacy!
Un milione di persone ogni settimana parla di suicidio con ChatGPT
Un milione di persone ogni settimana parla di suicidio e altri comportamenti autolesionistici mentre usa ChatGPT.
Lo ha reso noto la stessa società che gestisce il servizio di AI generativa più popolare del mondo lo scorso 27 ottobre insieme a una serie di altri dati su altri generi di conversazione, ovviamente meno preoccupanti ma non certo rassicuranti.
La sigla e ne parliamo.

[SIGLA]

È una classica situazione da bicchiere mezzo vuoto o mezzo pieno a seconda i punti di vista o, considerata l’ora, da tazzina di caffè con un caffè troppo corto o corto quasi al punto giusto.
Stiamo parlando dei dati che OpenAI ha pubblicato nei giorni scorsi, dati che essenzialmente, dicono due cose: che le conversazioni su ChatGPT restano in un numero rilevante di casi pericolose ma che sono sensibilmente meno pericolose che in passato perché la società si sta impegnando a affrontare e gestire questo genere di problemi.
Alcuni numeri, però, mettono i brividi.
Il primo è appunto quello di quel milione di persone in soli sette giorni che manifesterebbe propositi o intenzioni suicida o autolesioniste mentre usa ChatGPT.
Oggettivamente tante, anzi tantissime se si considera l’oggetto delle conversazioni e se si tiene conto della facilità con la quale, talvolta, si passa dalle parole ai fatti come hanno raccontato alcuni drammatici episodi.
Gli altri numeri, pure importanti, naturalmente, appaiono meno gravi.
Quello, analogo, degli utenti che manifestano "livelli elevati di attaccamento emotivo a ChatGPT" e quello da centinaia di migliaia di persone che mostrano segni di psicosi o mania nelle loro conversazioni settimanali.
Tutti fenomeni gravi e preoccupanti.
Ma, per chi voglia guardare la tazzina di caffè piena al punto giusto, tutti numeri inferiori a quelli di qualche mese fa e, naturalmente, di quelli che si sarebbero registrati, se fossero stati misurati con le stesse metriche, al momento del debutto.
OpenAI, insomma, e i numeri appena pubblicati in un’operazione di trasparenza comunque apprezzabile lo confermano, sta lavorando per contenere questo genere di fenomeni.
Tanto per fare un esempio, i dati suggeriscono che il nuovo modello GPT-5 ha ridotto le risposte indesiderate, nel caso di utenti che manifestano propositi suicida o autolesionisti, del 52% rispetto al GPT-4°.
Bene, naturalmente.
Difficile dire se anche benissimo, non conoscendo il numero delle risposte indesiderate che ChatGPT continua a dare agli utenti che usandolo parlano di suicidio.
E però la domanda da porsi probabilmente è un’altra e, bene dirlo subito, non riguarda solo ChatGPT e OpenAI ma l’intero universo dei chatbot.
Milioni di persone ogni settimana, conversando solo con ChatGPT evidenziano propositi suicida e autolesionisti, mostrano livelli elevati di attaccamento emotivo a ChatGPT e segni di psicosi o mania.
E se questa è la situazione in casa OpenAI è verosimile che non sia diversa quella che va in scena sulle pagine degli altri fornitori di servizi analoghi.
Uno scenario oggettivamente pericoloso con rischi, probabilmente, da considerarsi elevati se non in termini assoluti, in relazione alla natura degli interessi in gioco.
La domanda con la quale salutarci questa mattina, quindi, a me pare debba essere: siamo certi che servizi del genere possano essere distribuiti liberamente fuori da ogni regola che identifichi gli standard oltre i quali il rischio deve considerarsi insostenibile e imponga guardrails precisi a tutela degli utenti, a cominciare dai più giovani.
Personalmente non credo si possa andare avanti così, utilizzando il mercato come se si trattasse di un laboratorio nel quale sperimentare le proprie soluzioni e le persone come cavie.
Ma parliamone.

Buona giornata e, naturalmente, goodmorningprivacy!
Show more...
2 months ago
3 minutes

Good morning privacy!
Presidente, non provare a dividerci con la mia musica
"Si tratta di un utilizzo non autorizzato della mia interpretazione di 'Danger Zone'. Nessuno mi ha chiesto il permesso, che avrei negato, e chiedo che la mia registrazione su questo video venga rimossa immediatamente."
Ferma, decisa e determinata.
È la richiesta che Kenny Loggins ha inviato alla Casa Bianca dopo che Trump aveva utilizzato la sua musica come colonna sonora del video, generato con l’intelligenza artificiale, in risposta alla protesta No Kings che ha riempito sabato scorso le piazze americane.
Prima la sigla e poi ne parliamo davanti al solito caffè.

[SIGLA]

Il video ha fatto il giro del mondo suscitando reazioni diverse dal divertimento all’ironia, passando per la critica e lo stupore.
Donald Trump, Presidente degli Stati Uniti d’America, alla guida di un aereo da combattimento di quelli protagonisti di Top Gun, celeberrimo film con Tom Cruise che scarica tonnellate di una sostanza marrone facilmente identificabile sui manifestanti che invocano rispetto per la libertà e la democrazia.
La colonna sonora del video era Danger Zone, già colonna sonora proprio di Top Gun, interpretata da Kenny Loggins.
Ma una cosa è la propria musica che fa da colonna sonora a un film campione di incassi e una cosa completamente diversa è se finisce, complice anche l’intelligenza artificiale, a fare da colonna sonora a un video nel quale il tuo Presidente, alla cloche di un jet da guerra ricopre di escrementi i suoi oppositori.
"Non riesco a immaginare perché qualcuno dovrebbe volere che la propria musica venga usata o associata a qualcosa creato con il solo scopo di dividerci. Troppe persone stanno cercando di separarci e dobbiamo trovare nuovi modi per unirci. Siamo tutti americani e siamo tutti patriottici. Non esiste un 'noi e loro': non è quello che siamo, né quello che dovremmo essere. Siamo tutti noi. Siamo tutti sulla stessa barca e spero che possiamo abbracciare la musica come un modo per celebrare e unire ognuno di noi".
Sono le parole con le quali il cantautore americano ha pubblicamente spiegato la sua decisione di richiedere l’immediata rimozione della sua musica dal video pubblicato dalla Casa Bianca.
Difficile non condividerle.
Difficile non essere d’accordo.
È, d’altra parte, quello che da questa parte dell’oceano chiamiamo diritto morale d’autore.
L’autore e solo l’autore può decidere chi può fare cosa con la propria musica.
È un fatto, innanzitutto, di identità personale, specie quando l’utilizzo dell’altrui musica può dare a pensare che l’associazione sia figlia di una condivisione da parte dell’autore del contenuto al quale è associata.
Eppure, specie da quando la generazione di contenuti multimediali artificiali impazza il fenomeno dell’associazione di musica a questo o quel contenuto, un’associazione, normalmente, priva di qualsiasi preventiva autorizzazione.
E non è tanto e soltanto una questione di soldi, di diritti pagati o non pagati, di licenze.
Ma anche e soprattutto, proprio come la storia di Kenny Loggins e del video di Trump suggerisce una questione di principio, di ideali, di identità personale, di messaggi che non si condividono e ai quali non si vuole essere associati.
Una questione, spesso, sin qui, sottovalutata, anzi, di frequente dimenticata.
C’è da augurarsi che l’inciampo della Casa Bianca e la pronta e bella reazione di Loggins, valgano a sollevare il problema e a correre ai ripari.
E, naturalmente, quello che vale per la musica, vale anche e a maggior ragione per l’immagine di chicchessia che non dovrebbe poter essere utilizzata per generare qualsivoglia tipo di contenuto che veicoli messaggi, battute e dichiarazioni nei quali il titolare dell’immagine non si riconosce, che non gli appartengono, ai quali semplicemente non vuole essere associato.
Ne parlavo proprio nell’episodio di ieri a proposito della decisione di OpenAI di bloccare l’utilizzo dell’immagine di...
Show more...
2 months ago
4 minutes

Good morning privacy!
I personaggi famosi fuori da Sora su richiesta. E gli altri?
In un post sul suo account ufficiale su X OpenAI ha reso noto di aver sospeso la generazione di immagini di Martin Luther King a seguito della richiesta della figlia, Berenice e di aver intenzione di garantire lo stesso trattamento a tutti gli altri personaggi storici e pubblici che chiedessero o nel cui interesse venissero avanzate analoghe richieste.
Bene, almeno in un contesto nel quale ci stiamo abituando a festeggiare anche l’ovvio.
E, però, forse la questione è un po’ più complicata di così.
La sigla e ne parliamo.

[SIGLA]

“Sebbene vi siano forti interessi in materia di libertà di parola nella rappresentazione di personaggi storici, OpenAI ritiene che i personaggi pubblici e le loro famiglie debbano in ultima analisi avere il controllo su come la loro immagine viene utilizzata. I rappresentanti autorizzati o i titolari dei diritti possono richiedere che la loro immagine non venga utilizzata nei video di Sora”.
Dice così la società che ha progettato, sviluppato e gestisce SORA, il servizio di generazione di video artificiali già utilizzato da milioni di persone in tutto il mondo per abbattere definitivamente il già scolorito confine tra il vero e il falso, producendo centinaia di milioni di contenuti audiovisivi nei quali personaggi noti e illustri sconosciuti, storici e non storici diventano protagonisti di episodi ai quali non hanno mai partecipato o che, addirittura, non sono mai esistiti e di dichiarazioni che non hanno mai reso.
Difficile non essere d’accordo con la decisione di OpenAI e difficile non trovare abominevole la strumentalizzazione di un campione dei diritti come Martin Luther King in video artificialmente generati capaci di ridicolizzarne la figura, manipolarne il pensiero, e offenderne la memoria.
E, però, le domande che l’iniziativa appena assunta dalla mamma di SORA solleva e alle quali questo caffè, evidentemente, non basta per dare risposta sono due o, meglio, almeno due.
La prima.
Ma non sarebbe stato necessario, opportuno, eticamente corretto, giuridicamente doveroso pensarci prima? E cioè non porre affatto SORA in condizione di riportare artificialmente in vita chi non c’è più rendendolo protagonista di scene che non ha mai vissuto e parole che non ha mai pronunciato?
Perché, naturalmente, una cosa è indicizzare contenuti disponibili online per renderli più facilmente accessibili al pubblico come fanno i motori di ricerca e una cosa diversa è far propri quei contenuti per fornire un servizio che abilita milioni di persone a manipolarli per ogni genere di scopo.
La seconda.
Perché il diritto di chiedere a OpenAI di uscire da SORA dovrebbe spettare solo ai personaggi famosi?
Usare il volto, la voce, le sembianze di una persona significa usare i suoi dati personali e, almeno da questa parte dell’oceano, almeno il diritto di chiedere il c.d. opt out, ovvero l’interruzione di qualsiasi trattamento di dati che ci riguardi lo abbiamo tutti, nessuno escluso, che si sia personaggi famosi o illustri sconosciuti e, anzi, a ben vedere, forse, i secondi più dei primi che, magari, in alcune ipotesi, devono accettare una compressione del loro diritto in nome dell’interesse pubblico a informare e essere informati.
Troppo corto il caffè per le risposte però la discussione è importante e come che la si voglia concludere non credo che sia una buona idea lasciare che a decidere siano mercato e industria.
Buona giornata e, naturalmente, good morning privacy!
Show more...
2 months ago
3 minutes

Good morning privacy!
Un’app per far finta di esser andati in vacanza. Come siamo arrivati fino a qui?
Volete raccontare di esser andati ai tropici senza che lo abbiate fatto davvero o, magari, che avete scalato l’Everest, visitato una capitale europea o fatto il giro del mondo?

Niente di più facile.
Nell’era dell’intelligenza artificiale generativa e dei deepfake, volere e potere, senza limiti o quasi.
La sigla e poi vi racconto come fare, ma, soprattutto, mi chiedo e vi chiedo, come ci siamo arrivati qui? Come siamo arrivati a avvertire così forte il bisogno di contrabbandare per vera una vacanza che non abbiamo mai fatto.

—

Si chiama Endless summer, l’ha sviluppata e appena pubblicata sugli store di applicazioni di tutto il mondo, Laurent del Rey, uno sviluppatore del Meta’s Superintelligence Lab.
Ma è una sua iniziativa personale.
Funziona in modo semplicissimo.
Basta dare in pasto all’applicazione una o più vostre fotografie, scegliere dove andare in vacanza e tappare sullo schermo del vostro smartphone per chiedere all’app di generarvi una foto che vi ritrae nell’atteggiamento che preferite, su una spiaggia, una pista da sci, in cordata in montagna, su una nave da crociera o ovunque preferiate.
Ma se non volete neppure far lo sforzo di pensare a dove avreste voluto andare in vacanza ma non ci siete andati, c’è un servizio premium, che costa un po' di più, quindi, e che ogni giorno vi manda direttamente sullo smartphone un paio di foto scattate – pardon artificialmente generate – nei luoghi più esotici e affascinanti del mondo.
Poi a voi scegliere cosa raccontare a amici e parenti condividendo le foto in questione, stampandole, inviandole a qualcuno in digitale o pubblicandole sui social.
Certo, niente che non si potesse fare già ieri, prima del lancio dell’app con un qualsiasi programma di editing di immagini più o meno intelligente.
E, però, con Endless Summer la novità è che l’app ha una sola funzione: generare foto di vacanze che non avete mai fatto infilandovici dentro.
Ed è proprio questo che fa sorgere – o, almeno, c’è da augurarsi faccia sorgere – una domanda importante: quando è successo che abbiamo iniziato a avvertire così forte l’esigenza di raccontare ciò che non è mai esistito?
E come è potuto accadere?
Che soddisfazione può dare a una persona pubblicare una foto artificialmente generata di una vacanza inventata di sana pianta?
Viene il sospetto che se, effettivamente, pubblicare una foto del genere è un’ambizione diffusa, allora, significa che, in tanti, apprezzano di più o di meno una persona, secondo, se, quanto spesso e dove va in vacanza.
Così tanto da indurre qualcuno a non poter fare a meno di usare un’app del genere per diventare protagonista di una storia immaginifica di una vacanza mai esistita.
Quando ci interroghiamo sull’impatto della tecnologia sulle persone e sulla società, probabilmente, dovremmo riflettere anche su fenomeni come questo.
Senza dire che, naturalmente, quello che sta per accadere e che il confine tra le vacanze vere e le vacanze false, almeno nella dimensione digitale, sta per essere completamente eroso.
Per fortuna che, almeno per un po’, c’è da augurarsi che quelle vere continuino a regalare esperienze, emozioni e sensazioni, non riproducibili in laboratorio.
Inutile dire – anche se è la ragione per la quale ne parlo qui – che per riuscire nell’intento bisogna affidare al fornitore del servizio una montagna di nostri dati biometrici, tutti quelli necessari a consentire il miracolo fotografico o, forse, meglio l’illusione vacanziera.
Uno scambio che rende ancora più inspiegabile il ricorso a un servizio del genere.
Non so se sia un caffè da ridere o da piangere quello di oggi ma non correrei e, personalmente, non correrò a scaricare l’app.
Buona giornata e, naturalmente, good morning privacy!
Show more...
2 months ago
3 minutes

Good morning privacy!
Il Giappone a OpenAI: giù le mani da Super Mario. E l’Italia?
Il lancio di SORA la potentissima applicazione di generazione artificiale di video di OpenAI sta, comprensibilmente, facendo storcere la bocca a milioni di titolari dei diritti in tutto il mondo che stanno vedendo le loro creazioni prima finite in pasto agli algoritmi e ora risputate fuori in ogni genere di filmato generato dagli utenti e pubblicato online.
Tra i meno contenti di quello che sta accadendo sembrerebbe esserci niente di meno che il Governo di Tokyo.
La sigla e ne parliamo davanti al solito caffè.

[SIGLA]

Da Super Mario a Pikachu, passando per tutto lo straordinario patrimonio creativo giapponese.
È una ricchezza inestimabile che OpenAI – certamente non da sola ma in compagnia di diverse concorrenti – ha fatto sua e trasformato in un invidiabile asset tecno-commerciale che ora sta sfruttando per consentire al suo servizio di generazioni di video, SORA, di inserire i personaggi in questione nei contenuti generati dagli utenti.
Tutto, naturalmente, è avvenuto senza chiedere permesso a nessuno, a cominciare dai titolari dei diritti e senza pagare un solo dollaro di licenza.
Un furto bello e buono secondo alcuni.
Uno sfruttamento lecito dell’altrui patrimonio creativo per generare altri contenuti creativi secondo OpenAI e l’industria dell’intelligenza artificiale.
Nessuna sorpresa che al Governo di Tokyo sembri più un furto che una storia di innovazione e, infatti, ha chiesto formalmente a OpenAI di interrompere ogni forma di sfruttamento del patrimonio artistico giapponese nell’ambito del suo servizio.
Secondo il Governo si tratterebbe di “tesori insostituibili” cannibalizzati dagli algoritmi di OpenAI senza alcuna giustificazione giuridica: un furto di proprietà intellettuale appunto.
Come andrà a finire?
Troppo presto per dirlo.
E, però, la questione è rilevante perché, in fondo, le rivendicazioni del Governo di Tokyo sono le stesse che decine di altri Governi, a cominciare da quello di casa nostra, potrebbero indirizzare alle fabbriche degli algoritmi di intelligenza artificiale generativa per chiedere che rinuncino allo sfruttamento dei tesori creativi.
Senza nulla togliere ai Manga e alle Anime giapponesi, a Super Mario e Pikachu, anche l’Italia ha, nel mondo della creatività artistica i suoi “tesori insostituibili”, dalla musica, al cinema, alla letteratura, ai beni culturali.
Che non sia l’ora di cominciare a rivendicare almeno una “sovranità artistica digitale”?
Solo una provocazione.
Ma, forse, non completamente priva di fondamento.
Buona giornata e, naturalmente, good morning privacy.
Show more...
2 months ago
2 minutes

Good morning privacy!
Più preoccupazione che entusiasmo sull’intelligenza artificiale
Sono interessanti i dati e le percentuali di una ricerca appena pubblicata dal Pew Research Center a proposito della percezione che, in giro per il mondo, si ha dell’impatto dell’intelligenza artificiale sulla società.
Con poche eccezioni, in generale, il fenomeno sta generando più preoccupazione che entusiasmo.
Ma, dopo la sigla, vale la pena approfondire.

[SIGLA]

Sono di venticinque Paesi diversi, anzi, diversissimi, i cittadini ai quali il Pew Research center ha chiesto se guardino all’intelligenza artificiale più con entusiasmo o con preoccupazione e, con la sola eccezione della Corea del Sud, da nessuna parte, più di tre cittadini su dieci hanno scelto l’entusiasmo.
In Italia circa la metà degli adulti si dice più preoccupata che entusiasta per la crescente presenza dell'IA nella vita quotidiana, una quota tra le più alte insieme a quelle di Stati Uniti, Australia, Brasile e Grecia.
In media il 34% si dice più preoccupato che entusiasta, il 42% prova sentimenti contrastanti e solo il 16% è più entusiasta che inquieto.
Sono dati che oggettivamente suggeriscono qualche riflessione perché raccontano, almeno, che la corsa folle verso la pandemia degli algoritmi e delle intelligenze artificiali non risponde a un sentir comune, non è un desiderio dei più, non è figlia di un entusiasmo collettivo e, anzi, preoccupa più di quanto entusiasmi.
Ma attenzione a non correre alle conclusioni.
C’è anche da considerare che la stessa ricerca suggerisce che, sfortunatamente, le persone, in giro per il mondo, sanno poco, anzi pochissimo dell’intelligenza artificiale.
I giovani più dei meno giovani ma comunque con percentuali che non superano mai la metà della popolazione dei venticinque Paesi coinvolti nella ricerca.
Nel complesso, la media mondiale indica che il 34% degli adulti ha sentito o letto molto di IA, il 47% un po' e il 14% per nulla.
Sfortunatamente sembra evidente che stiamo investendo enormemente di più nell’addestrare gli algoritmi a conoscere le persone che nell’educare le persone a conoscere gli algoritmi.
Il risultato è che che si sia entusiasti o, invece, preoccupati, l’una e l’altra percezione è poco informata, poco consapevole, poco ponderata.
È, forse, il dato più preoccupante che emerge dalla ricerca.
Siamo davanti a una rivoluzione epocale che sta determinando una trasformazione antropologica e i miliardi di persone le cui vite verranno radicalmente cambiate non ne sanno abbastanza e, quindi, non sono in condizione di partecipare consapevolmente al governo del fenomeno.
È, probabilmente, uno dei più grandi fallimenti educativi della storia dell’umanità, un fallimento che rischia di consegnare a un mercato asfittico e oligopolistico come pochi altri, il governo dell’intera società.
Numeri e percentuali da caffè amaro questo mattina.
Ma, comunque, buona giornata e, naturalmente, good morning privacy!
Show more...
2 months ago
2 minutes

Good morning privacy!
Viviamo nella società dei dati, la nostra vita, in tutte le sue dimensioni è sempre più influenzata dai nostri dati personali, da chi li utilizza, da cosa ci fa, da dove e quanto li conserva.
Senza dire che anche gli algoritmi ne sono straordinamente golosi, direi voraci.
Ecco perché dedicare tre minuti al giorno alla privacy potrebbe essere una buona idea, il tempo di un caffè veloce, un buongiorno e niente di più, per ascoltare una notizia, un'idea, un'opinione o, magari, per sentirti cheiedere cosa ne pensi di qualcosa che sta accadendo a proposito di privacy e dintorni.
Non una rubrica per addetti ai lavori, ma per tutti, un esercizio per provare a rendere un diritto popolare, di tutti e per tutti, centrale come merita nella nostra esistenza.