
Hosted by Guido Scorza · IT

Se proprio non sappiamo resistere alla tentazione di pubblicare le loro foto, basta un dito per proteggere la privacy dei nostri figli Oggi nessuna notizia di attualità per iniziare la giornata ma un consiglio utile, anzi, secondo me prezioso, per tutti ma, in particolare, per noi genitori. Pubblicare le foto dei nostri figli è spesso una tentazione irresistibile. Lo si fa di continuo. Il primo bagnetto, il primo giorno di scuola, il compleanno e chi più ne ha più ne metta. È una pessima abitudine ma è dura a morire. Quindi in attesa di riuscire a sconfiggerla vale, forse, la pena provare a limitarne le conseguenze. La sigla e vi racconto come. [—] La necessaria premessa è questa: pubblicare online una foto dei nostri figli non è una buona idea, anzi, se mi si consente un abuso di schiettezza è davvero una pessima idea. Le ragioni sono tante. Ve ne racconto tre. La prima è che non dovremmo mai dar per scontato che crescendo i nostri figli siano felici della nostra scelta di condividere le loro immagini da bambini con il resto del mondo ma, a quel punto, tornare indietro potrebbe essere – e nella più parte dei casi sarà – impossibile. Mentre, infatti, ci vuole un attimo a pubblicare un contenuto online, una vita può non bastare per renderlo di nuovo privato. E iniziano a moltiplicarsi in giro per il mondo le azioni proposte da ex bambini, divenuti adolescenti, nei confronti di genitori, zii e persino nonni, perché cancellino le loro foto dai social network perché non vogliono, per esempio, che quella foto del loro primo bagnetto o della loro prima corsetta in costume sulla spiaggia rappresenti il loro biglietto da visita nel primo giorno di liceo. La seconda è che, sfortunatamente, con l’intelligenza artificiale che avanza, ormai, chiunque, in pochi tap sullo schermo di uno smartphone può prendere da una foto che abbiamo pubblicato online pieni di orgoglio materno o paterno il viso dei nostri figli e trasformarlo in quello di pornoattore o di una pornoattrice destinato a soddisfare gli appetiti più malati e perversi di quella parte di umanità disumana che ci piacerebbe non esistesse ma, invece, esiste. Capita molto più spesso di quanto si possa immaginare. La terza è che le foto che pubblichiamo e il loro sfondo – magari con la targa della scuola frequentata dai nostri figli o il campetto dove giocano a pallone – potrebbero fornire indicazioni preziose a quella stessa umanità disumana che potrebbe volerli adescare. E, anche questo, purtroppo, la cronaca racconta che succede, succede e ancora succede. Ma se nonostante queste e le tante altre ragioni che suggeriscono di non farlo non sappiamo resistere dal pubblicare online la foto dei nostri figli, almeno, sfochiamo i loro visi. Farlo è facilissimo. Sull’iphone, dalla versione IOS18 in avanti – e, quindi, senza bisogno di avere l’ultimo modello – basta un dito e una manciata di secondi. Si fa così. Si sceglie la foto che non si sa resistere alla tentazione di pubblicare. Si va su “modifica” e quindi su “ripulisci”. A questo punto si cerchia il viso con un dito. L’intelligenza artificiale di Apple fa il resto e sfoca il volto di nostra figlia o nostro figlio rendendo impossibile per chiunque, dopo la pubblicazione, visualizzare il suo volto. È facile, costa poco tempo, garantisce un risultato ragionevole – anche se non il massimo – in termini di bilanciamento tra la spinta a pubblicare quella foto e l’esigenza di proteggere la privacy dei nostri figli e lasciare, come dovrebbe venirci in realtà naturale, che divenuti capaci di farlo siano loro a scegliere in autonomia dove tracciare la linea di confine tra le dimensioni pubblica, privata e segreta della loro esistenza. Pochi secondi, un dito e, certo, la rinuncia a far veder al mondo intero il sorriso dei nostri figli. È il prezzo di una scelta giusta o, almeno, meno sbagliata di quella che in tanti, da genitori, facciamo spesso. Buona giornata e good morning privacy!

Ci sono due notizie rimbalzate nei giorni scorsi online che suggeriscono una riflessione amara ma necessaria.La prima è la decisione del Governo indiano di chiedere alle aziende di e-commerce istantaneo di smettere di promettere ai propri utenti consegne in dieci minuti.La seconda sono le rivelazioni di un ingegnere informatico che racconta di aver lavorato sin qui una grande società di consegne a domicilio e di essersi licenziato per una sorta di obiezione di coscienza.Entrambe le storie hanno la stessa morale: il lusso che ci piace a tutti di ordinare qualsiasi cosa restando seduti sul nostro divano attraverso un tap sullo schermo dello smartphone sta assumendo dei costi sociali insostenibili per le centinaia di milioni di persone che lavorano nel settore.La sigla e ve ne parlo per qualche minuto.Nel resto del mondo la tendenza non ha ancora preso così tanto piede ma nelle grandi città indiane sembra, ormai, irreversibile: si ordina un prodotto, uno qualsiasi, da una playstation a del cibo e ci si aspetta di vederselo consegnare in dieci minuti anche perché tanto promettono una serie di aziende specializzate in questo genere di e-commerce istantaneo.Ma, naturalmente, mantener fede a una promessa del genere, significa far correre fino allo sfinimento i propri corrieri senza riguardo alle condizioni atmosferiche, al traffico, allo stress e alla stanchezza.È per questo che il Governo indiano ha appena chiesto alle leader di questo settore di mercato di ripensare il modello di business, di smettere di promettere consegne tanto rapide, di rispettare di più i lavoratori e farli rischiare di meno lungo le strade delle grandi città.Il lusso di chi ordina, infatti, è diventato un costo insostenibile per i lavoratori che devono consegnare l’ordine.E non succede solo in India e non succede solo con il commercio elettronico istantaneo.Negli Stati Uniti, infatti, nei giorni scorsi una gola profonda ha denunciato una serie di pratiche algoritmiche disumane che sembrerebbero diffuse nel settore delle consegne a domicilio.Una su tutte, tanto per evitare che il caffè diventi lungo.Uno dei parametri utilizzati dall’algoritmo che gestisce l’assegnazione delle corse ai rider sarebbe questo: se un rider, in una stessa serata, accetta un certo numero di corse di modesto o modestissimo valore, lo si contraddistingue come “disperato” e, da quel momento in poi non gli si propongono più corse meglio pagate.La ratio è tanto semplice quanto disumana e disumanizzante: se è disposto a correre e lavorare tanto per un pugno di dollari, perché pagargliene di più?Un ragionamento che, probabilmente, per la società che gestisce l’applicazione vale una significativa impennata dei guadagni e un’ottimizzazione nella gestione delle risorse umane ma che, evidentemente, non ha niente ma proprio niente a che fare con la dignità delle persone e dei lavoratori.Due storie lontane, due storie diverse, due storie che suggeriscono, certamente, di puntare l’indice e di indirizzare un duro j’accuse all’industria del settore ma, al tempo stesso, due storie che dovrebbero impedirci di autoassolverci, di sentirci innocenti, di sottrarci alle nostre responsabilità.In fondo se le cose stanno andando come stanno andando, con persone trattate da autentici schiavi anziché da madri, padri, figlie, figli, persone, insomma, in carne ed ossa, la colpa è anche nostra e di lussi e privilegi digitali talvolta stupidi ai quali, forse, potremmo rinunciare.Perchè in fondo attendere trenta minuti anziché dieci per ricevere una playstation a casa non ci cambia la vita.Come non ce la cambia fare lo sforzo – si fa per dire – di pensare a quello che avremmo voglia di mangiare a cena trenta minuti prima.Insomma se ciascuno di noi facesse un piccolo passo indietro nelle proprie aspettative digitali, potrebbe contribuire a fare un grande passo avanti alla dignità di centinaia di milioni di lavoratori della gig economy oggi calpestata e travolta dalla ferma volontà del mercato di soddisfare ogni nostro desiderio e capriccio.Buona giornata e, come sempre, good morning privacy!

Domenica scorsa, a seguito di una bella inchiesta giornalistica del The Guardian, Google ha impedito al suo AI Overview -il riassunto generato artificialmente che da un po' compare in cima ai risultati delle ricerche nel tentativo di soddisfare il più rapidamente possibile la curiosità degli utenti – di rispondere a alcune domande, in particolare, su alcuni valori delle analisi del sangue relativi a possibili patologie epatiche.I giornalisti del The Guardian avevano, infatti, denunciato la circostanza che talune di queste risposte erano sbagliate e fuorvianti e avrebbero potuto ingenerare gravi errori sulle condizioni di salute degli utenti.Bene lo stop di Google – che, pure, sostiene di aver agito prudenzialmente ma di non esser certa dell’erroneità delle risposte della sua intelligenza artificiale -, non benissimo e, comunque, francamente, non credo il problema possa esser affrontato e risolto in maniera episodica.Ma ve ne parlo dopo la sigla.—-Dr. Google esiste da quando esiste Google.Era il 1998.È da allora che ci siamo abituati a consultarlo, tra l’atro, sulle nostre condizioni di salute, sulle diagnosi e sulle terapie.E, però, fino a qualche mese fa la risposta è sempre stata un lungo elenco di link a fonti più o meno autorevoli tra le quali navigare alla ricerca di informazioni capaci di soddisfare i nostri interessi e la nostra curiosità.Con OverviewAI è cambiato tanto se non tutto perché Google ha iniziato a usare l’intelligenza artificiale per generare una sintesi editoriale del contenuto delle principali fonti proposte tra i risultati della ricerca.Obiettivo: semplificarci ancora di più la vita, farci risparmiar tempo, fornirci risposte piu1 centrate rispetto alla domanda senza imporci di andarle a cercare in infinite, per quanto autorevoli, pagine web.Molto nobile e molto bello ma soprattutto indispensabile in termini competitivi davanti a quello che stava accadendo: frotte di utenti che stavano smettendo di interrogare il motore di ricerca più famoso del mondo e iniziando a interrogare ChatGPT, l’intelligenza artificiale più popolare del momento perché, naturalmente, siamo tutti pigri e, sfortunatamente, preferiamo una risposta sintetica e preconfezionata che dover navigare in un lungo elenco di risultati della ricerca.Meglio ChatGPT che Google insomma e, pazienza, per l’accuratezza della risposta, pazienza se l’intelligenza artificiale non è nata per far sintesi accurate specie in taluni ambiti, pazienza se l’errore è sempre in agguato, pazienza se OpenAI non è l’editrice di una blasonata enciclopedia.Questo è accaduto in tutti gli ambiti dello scibile umano, salute inclusa.Anche perché, altrimenti, lo studio medico del Dr. Google si sarebbe svuotato a tutto vantaggio di quello del Dr. ChatGPT perché chi ha appena fatto un’analisi del sangue e vuole sapere se sta bene senza attendere di vedere il medico, avrebbe preferito di gran lunga la risposta sintetica e preconfezionata di ChatGPT che il lungo elenco di link di Google.Ma, come si dice spesso, la sintesi è nemica dell’analisi e, soprattutto, la sintesi è un’attività creativa, difficile, complessa con la naturale conseguenza che sbagliare facendo sintesi è possibile, facile, in alcuni ambiti – a cominciare proprio da quello medico – frequente.E quando si sbaglia a leggere un’analisi medica, a proporre una diagnosi a suggerire una terapia le conseguenze possono essere gravi e gravissime.Gli utenti, sfortunatamente, tendono a credere all’onniscienza dell’intelligenza artificiale e a fidarsene persino quando la stessa intelligenza artificiale suggerisce loro di interpellare un medico.È qui che sta il problema che non è episodico ma sistemico e non si può risolvere con l’eliminazione di alcune risposte sbagliate suggerite come tali da un’inchiesta giornalistica.Io non credo che un’intelligenza artificiale di tipo generativa come quella di Google o OpenAI, ma lo stesso vale per qualsiasi altro concorrente, possa dare indicazioni mediche di qualsivoglia genere se non dopo che il servizio venga testato, collaudato, certificato come dispositivo medico.Non mi pare sostenibile ulteriormente che progettare, produrre e distribuire un termometro o un test di gravidanza sia più complicato e richieda maggiori tutele che distribuire sul mercato soluzioni di intelligenza artificiale capaci di fatto, di sostituirsi a un medico, proponendo diagnosi e terapie.Voi che ne pensate?Buona giornata e good morning privacy!

Decidono di sposarsi e chiedono a un amico che li conosce bene di celebrare il matrimonio per rendere la cerimonia più intima e romantica.Lui accetta ma non avendo mai celebrato un matrimonio chiede a ChatGPT di scrivergli il discorso che avrebbe dovuto pronunciare, promesse e obblighi che avrebbe dovuto chiedere ai due promessi sposi di assumere.Detto fatto.O, meglio, chiesto e scritto da ChatGPT.Ma non è tutto oro quello che luccica e non son sempre nozze quelle che sembrano esserlo.Lo racconta bene una storia che rimbalza da un Tribunale olandese.Se vi interessa ascoltate il podcast.Ma dopo la sigla[SIGLA]L’ufficiale dell’anagrafe che avrebbe dovuto trascrivere il matrimonio nel registro dello stato civile per renderlo valido leggendo promesse e obblighi assunti dagli sposi o, meglio, dai due sfortunati che pensavano di essersi sposati ha notato che qualcosa non andava e ha, quindi, chiesto ai Giudici di verificare se il matrimonio potesse essere registrato.Nei giorni scorsi è arrivata la risposta.Un fermo, per quanto dispiaciuto, no.Il discorso pronunciato dall’amico della coppia incaricato e autorizzato a officiare il matrimonio e, soprattutto, le promesse e gli obblighi assunti dai due nubendi erano difformi da quanto previsto dal codice civile olandese.Impossibile, sulla base di quel che si sa, dire se per colpa del prompt ovvero della richiesta con la quale l’amico dei due ha chiesto a ChatGPT di aiutarlo a trovare le parole giuste per dichiararli marito e moglie e unirli in matrimonio o per colpa di ChatGPT ma fatto sta che le parole pronunciate, tanto dall’officiante che dai due promessi sposti, non sono state quelle giuste.Romantiche e divertenti più del solito certamente si.Valide a norma di legge per unire due persone in matrimonio certamente no.E, in fondo, cuore e romanticismo a parte, il matrimonio è un contratto che senza le formule di rito non può considerarsi valido.Inutile la difesa della coppia che ha, naturalmente, confermato ai giudici la serietà delle intenzioni e l’ignoranza delle mancanze nelle quali erano incorsi e inutile anche l’invito rivolto ai Giudici a non cancellare con una sentenza la data delle loro nozze, scelta tra tante possibili e alla quale erano affezionati.Comprendiamo tutto, comprendiamo bene ma dura lex sed lex hanno risposto i Giudici olandesi costringendo i due a celebrare, anche se solo per esigenze di forma, un nuovo matrimonio in municipio.Vicenda più da sorriso del mattino che da sottili riflessioni giuridiche anche se, forse, una considerazione la suggerisce.Stiamo, evidentemente, acquisendo così tanta fiducia nell’intelligenza artificiale e in particolare, in questo caso, in quella generativa da affidarle compiti sempre più rilevanti per le nostre vite e per quelle di chi ci sta vicino.Ma la fiducia cieca in strumenti e servizi che per quanto possano apparire capaci di soddisfare ogni nostra richiesta come se stessimo strofinando la lampada di Aladino sono nati con ambizioni più modeste e dovrebbero, essenzialmente, esser usati per mettere in fila parole in maniera statisticamente lessicalmente corretta è, spesso, mal riposta.I due sposi olandesi e il loro amico, certamente, non dimenticheranno la lezione tanto facilmente.Ma dobbiamo farla nostra anche noi.Bene usare l’intelligenza artificiale generativa ma solo per far prima in domini nei quali siamo in condizione di poter verificare il contenuto che genera, insomma, ricordando che magari sa scrivere bene e velocemente ma non è la grande saggia che talvolta pensiamo che sia.Oggi un caffè leggero.Buona giornata e good morning privacy.

Nel febbraio del 2024 un ragazzino americano di quattordici anni si è ucciso sparandosi un colpo di pistola in testa dopo aver allacciato una lunga relazione con un chatbot creato attraverso CharacterAI.Nei giorni scorsi la causa promossa dalla mamma davanti ai Giudici della Florida contro Character AI e Google è stata chiusa con una transazione.È una storia che merita qualche riflessione.La sigla e ne parliamo.Leggere l’atto di citazione con il quale Megan Garcia, la mamma del ragazzo morto suicida aveva chiesto ai Giudici di Orlando, in Florida di accertare la responsabilità di CharacterAI e Google nella morte del figlio e condannarle al risarcimento dei danni è un esercizio dolorosissimo ma prezioso perché racconta di una storia normale a dispetto del tragico epilogo.Quella di Sewell, così si chiamava il figlio quattordicenne che non c’è più è, infatti, probabilmente una storia eguale a quelle di milioni di altri bambini e adolescenti, storie delle quali, magari, da adulti, non ci rendiamo conto, non ci accorgiamo o non percepiamo con la necessaria urgenza e gravità proprio come accaduto a Megan Garcia.Sewell, in pochi mesi, aveva stretto una vera e propria relazione sentimentale e sessuale con un chatbot generato attraverso i servizi di CharacterAI, una relazione della quale non era più in grado di fare a meno, una relazione che lo aveva profondamente cambiato tanto nel rapporto con i genitori tanto in quelli a scuola e con gli amici.Questo la mamma, in qualche modo, lo aveva intuito tanto da portare il figlio da uno psicologo che aveva confermato i suoi sospetti.Nessuno però aveva immaginato e, forse, avrebbe potuto immaginare che la condizione di dipendenza del ragazzino nei confronti del chatbot era tanto profonda da impedirgli di farne a meno, da costringerlo a rinunciare alle merende per pagare il canone dei servizi di abbonamento premium necessari a avere conversazioni sentimental-sessuali con il suo amore artificiale, tanto, quando la mamma nella speranza di aiutarlo gli ha tolto il telefonino, da portarlo a fare ogni genere di tentativo per ritrovarlo o collegarsi al chatbot diversamente e, poi, vistosi perso, chiudersi in bagno, scambiare poche parole proprio con il chatbot in questione attraverso lo smartphone momentaneamente ritrovato e, quindi, spararsi un colpo di pistola in testa.Il giudizio non accerterà mai se e quali responsabilità effettive siano imputabili a chi ha progettato, gestito e distribuito il servizio utilizzato da Sewell perchè, appunto, le parti, nei giorni scorsi, hanno raggiunto un accordo transattivo i cui termini non sono stati resi noti.E, però, noi, da adulti, da genitori, da istituzioni qualche domanda dobbiamo porcela perché quello che è successo a Sewell domani potrebbe accadere a chiunque altro, a un altro bambino, un altro adolescente, a una nostra figlia o a un nostro figlio.Tra queste domande, una delle più importanti, probabilmente, riguarda la sostenibilità dell’idea – sin qui imposta da industria e mercato – che chatbot di questo genere, chatbot che si presentano come capaci di esserci amici, fidanzate, amante e psicoterapeutici possano essere, sostanzialmente, utilizzabili da chiunque, a prescindere dall’età e, quindi, anche da bambini e adolescenti.È davvero accettabile?Perché la cronaca, purtroppo, racconta che in giro per il mondo ci sono già decine di casi di adulti che si sono tolti la vita all’esito di relazioni di diverso genere con chatbot di ogni tipo ed è facile capire che se quel genere di relazioni è pericolosa per un adulto non può che esserlo ancora di più per un bambino o per un adolescente.E, forse, non è un caso che l’accordo transattivo arrivi proprio mentre in California, dove hanno sede CharacterAI e Google, entra in vigore la prima legge al mondo che impone, tra l’altro, alle aziende che forniscono servizi di chatbot di verificare l’età degli utenti e di limitare in maniera straordinariamente rigorosa ogni possibilità che i chatbot in questione abbiano conversazioni di tipo sessuale con i più giovani.Varrebbe, forse, la pena, senza attendere un’altra tragedia come quella di Sewell, seguire l’esempio californiano.È ovvio che non è solo una questione di età ma, al tempo stesso, non c’è dubbio che tenere i più piccoli lontani da certi rischi insostenibili potrebbe essere un buon inizio.Buona giornata e, come sempre, good morning privacy.

In Italia la notizia l’hanno battuta in pochi e, forse, non c’è da sorprendersi: la BBC, il servizio pubblico televisivo inglese, uno dei laboratori più blasonati di giornalismo di qualità, nei giorni scorsi ha raggiunto un accordo transattivo con una famiglia israeliana dopo averne violato la privacy.La famiglia, attaccata da Hamas il 7 ottobre 2023 aveva citato l’emittente televisiva in Tribunale dopo che una troupe era entrata nella sua abitazione, subito dopo l’attacco al quale era miracolosamente sopravvissuta e aveva ripreso scene di disperazione e sconforto facilmente immaginabili, oggetti e foto personali e personalissimi.La sigla e ne parliamo"Non solo i terroristi hanno fatto irruzione in casa nostra e hanno cercato di ucciderci – hanno detto i sopravvissuti all’attacco - ma poi la troupe della BBC è entrata di nuovo, questa volta con una telecamera come arma, senza permesso o consenso. È stata un'altra intrusione nelle nostre vite. Sentivamo che tutto ciò che era ancora sotto il nostro controllo ci era stato portato via.".Sono parole che rendono meglio di tante altre l’idea di quanto valga o, almeno, dovrebbe valere l’intimità, la privacy, la riservatezza per ciascuno di noi e quanto rispettarla debba, o, almeno, dovrebbe essere un dovere di tutti a cominciare da chi fa informazione.Una famiglia appena sopravvissuta alla violenza di granate lanciate dai terroristi contro la porta di casa che vive come analoga e, anzi, forse ancora più prepotente e violenta, la violazione della propria intimità commessa da una troupe televisiva entrata, senza alcun permesso, dentro quella stessa casa.E una troupe televisiva, di un’emittente simbolo del giornalismo di qualità che, per raccontare una scena di guerra, di inaudita violenza, usa altrettanta violenza.Disumanità dopo disumanità.Inciviltà dopo inciviltà.Una sequenza di episodi che non avrebbe mai dovuto trovare spazio nella storia dell’umanità.Ma, forse, anche una sequenza di episodi che può insegnarci molto a condizione di non lasciarcela scivolare addosso come una notizia qualsiasi, una di quelle che contano di meno, una di quelle da consegnare in fretta agli archivi storici dei giornali.Anche e soprattutto in un momento nel quale, ovunque nel mondo, Italia inclusa, si fa sempre più fatica a tracciare la linea di confine tra giornalismo, anche d’inchiesta e la protezione della privacy delle persone.Il diritto di cronaca non è un diritto assoluto proprio come non lo è il diritto alla privacy e, quindi, neppure il sacrosanto diritto-dovere di raccontare gli orrori di un’autentica guerra giustificano la violazione dell’intimità della casa di un’intera famiglia, bambini inclusi, appena scampata a un attacco terroristico.È una lezione che la BBC ha fatto propria in fretta, rinunciando a difendere in Tribunale l’idea che la propria missione informativa fosse una valida giustificazione per entrare, telecamere alla mano, dentro casa della famiglia senza neppure aver chiesto permesso.Quella storia si poteva – e, anzi, forse, si doveva – raccontare senza violare la privacy di quella famiglia o chiedendo e ottenendo il consenso a entrare dentro quella casa o non raccogliendo e trasmettendo quelle immagini di ordinario disumano dolore che, purtroppo, ormai, aggiungono poco all’orrore di quella guerra.E c’è da augurarsi che sia una lezione che anche chi fa giornalismo nel resto del mondo, a cominciare da casa nostra, impari in fretta e per davvero.Non c’è ragione per vedere nella privacy una nemica del buon giornalismo, proprio come il buon giornalismo non è nemico della privacy.Un equilibrio è possibile.E, in fondo, anche se pochi lo ricordano, il diritto alla privacy, quello teorizzato per la prima volta nel 1890 da Warren e Brandeis nel loro saggio sulla Harvard Law Review, nasce proprio come reazione a una serie di articoli pubblicati sul giornale addirittura di quel Joseph Pulitzer che sarebbe presto diventato il nome simbolo del miglior giornalismo possibile, a conferma, probabilmente, del fatto che privacy e informazione sono diritti complementari, simbiotici, alleati, capaci di migliorarsi a vicenda e, insieme, rendere migliore la vita delle persone e delle nostre democrazie.

Il Pew Research center ha pubblicato, qualche settimana fa, una ricerca straordinariamente istruttiva sul rapporto tra giovani, meno giovani e anziani e l’informazione negli Stati Uniti d’America.Ma difficile pensare che da questa parte dell’oceano, nella società globalizzata nella quale viviamo, le cose siano particolarmente diverse.Le differenze tra il consumo di informazione tra le persone di età compresa tra i 18 e i 29 anni e gli ultrasessantacinquenni sono decisamente tante e importanti.La sigla e proviamo a mettere in fila qualche numero.[sigla]La conclusione, probabilmente, più importante di tutte quelle a cui approda la ricerca sarà, magari, per molti scontati: i più giovani si informano sempre meno dal 2016 ad oggi e, soprattutto, enormemente di meno dalla popolazione più anziana.E, soprattutto, mentre i più anziani ricercano attivamente l’informazione, i più giovani, nella migliore delle ipotesi, si lascia raggiungere dall’informazione in modalità sostanzialmente passiva.Tanto per dare qualche numero: il 62% degli ultrasessantacinquenni si informa attivamente contro un appena 15% che fa altrettanto tra gli ultra diciottenni e infra ventinovenni.Inutile, probabilmente, aggiungere che la stragrande maggioranza dei più giovani si informa o, forse, meglio, si lascia informare dai socialnetwork con Tik Tok e Instagram in testa.E, naturalmente, è vero anche il contrario con il doppio degli anziani rispetto ai più giovani davanti al televisore.Qui c’è spazio per una riflessione interessante perché in fondo la ricerca suggerisce che le diete mediatico-informative sono stabilite da soggetti diversi a seconda l’età dei fruitori delle notizie: ancora largamente la televisione nel caso degli ultrasessantacinquenni, appunto i social nel caso dei diciottenni, infra ventinovenni.La ragione è presto detta.L’informazione sui social network corre più veloce e, soprattutto è proposta ai più giovani dai loro beniamini digitali che, ormai chiamiamo tutti influencer.Lo fanno in quattro su dieci tra i 18 e i 29 anni.Al di fuori dei social media, non esiste nessun'altra piattaforma digitale per il consumo di notizie in cui gli adulti sotto i 30 anni siano così costantemente diversi da tutti i gruppi di età più anziani.Gli stessi chatbot basati sull’intelligenza artificiale dei quali pure si parla tantissimo come dei prossimi protagonisti indiscussi della dieta mediatica del mondo intero sembrano dover fare ancora tanta strada prima di poter insidiare il primato dei socialnetwork.I giovani sono leggermente più propensi rispetto ai più anziani ad affermare di ricevere notizie tramite chatbot basati sull'intelligenza artificiale (13%), ma la percentuale di coloro che ricevono notizie in questo modo è ancora relativamente piccola rispetto ad altre piattaforme digitali.Un’altra differenza importante tra più e meno giovani si registra sul versante dell’affidabilità delle fonti: i più giovani si fidano enormemente di più dei social network che dei media tradizionali.Ancora una volta un’osservazione che appare significativa.Niente privacy oggi anche se, in realtà, dietro a tutto il mondo dell’informazione digitale i dati personali ci sono e come e hanno anche un ruolo di indiscussi protagonisti perché, alla fine, che si parli dei social, dei chatbot o dei giornali, sono tutti li a contendersi l’unica cosa che online conta per davvero: l’attenzione degli utenti e attraverso l’attenzione il loro tempo e, quindi, i loro dati personali da rivendersi, in un modo o nell’altro agli investitori pubblicitari.Buona giornata e, come sempre, good morning privacy.

Il Procuratore Generale del Texas Ken Paxton ha appena intentato una causa contro Sony, Samsung, LG, Hisense e TCL Technology Group Corporation.L’accusa è aver spiato i texani attraverso le loro SmartTV.Un’iniziativa che merita di esser raccontata e seguita perché educativa e istruttiva.La sigla e ne parliamo.[SIGLA]C’erano una volta le televisioni che si lasciavano guardare punto e basta.Non ci sono più.Le televisioni che abbiamo oggi in salotto, quelle che il mercato ci ha imparato a chiamare SmartTV, infatti, ci guardano mentre le guardiamo.E, per dirla tutta, ci guardano con molta più attenzione e molto più in profondità di quanto noi non si faccia con loro.Ma secondo il Procuratore Generale del Texas ci sarebbe molto di più.Non solo, infatti, le SmartTV e, per loro, i loro produttori ci guarderebbero mentre noi le guardiamo ma, letteralmente, ci spierebbero.Si farebbero, insomma, i fatti nostri a nostra insaputa.E lo farebbero, inutile dirlo, per far soldi, tanti soldi rivendendo poi sul mercato della pubblicità tutto quello che scoprono su di noi, le nostre abitudini di consumo di contenuti digitali, i nostri gusti, i nostri orari e tanto di più deducibile da quello che guardiamo, come lo guardiamo e quando lo guardiamo.Una miniera d’oro di dati personali che arriverebbe nei forzieri digitali dei produttori di SmartTV direttamente dai nostri salotti e dalle nostre camere da letto.Secondo quanto dedotto nei cinque giudizi promossi dal Procuratore generale texano tutto questo sarebbe possibile essenzialmente grazie a quelli che, da un po', da questa parte dell’oceano, chiamiamo dark pattern, una congerie di informazioni in eccesso, interfacce disegnate a arte e flussi di raccolta dei consensi degli utenti a questo o quel trattamento di loro dati personali progettata e sviluppata scientificamente così da fare in modo che sia enormemente più facile prestare il consenso alle più invasive delle forme di monitoraggio commerciale immaginabili che negarlo.È così che le SmartTV starebbero spiando i texani ed è per questo che i loro produttori, oltre a smettere di farlo, dovrebbero risarcirli.Tutto questo, naturalmente, per stare ai cinque giudizi in Texas.E, però, visto che le TV sono sostanzialmente le stesse, legittimo ipotizzare che da questa parte dell’oceano le cose non vadano così tanto diversamente.Insomma, magari, la prossima volta che ci mettiamo davanti alla TV varrà la pena pensare che mentre noi la guardiamo, anche lei ci guarda e, ancora prima, varrebbe forse la pena dedicare qualche minuto in più alle informative sulla privacy che ci propongono quando le accendiamo per la prima volta e investire qualche minuto in più – secondo il Procuratore generale texano l’impresa è difficile e faticosa ma non impossibile – per negare tutti i consensi possibili a che le televisioni anziché lasciarsi guardare ci guardino.In fondo le SmartTV le paghiamo già una volta quando le compriamo e non c’è davvero ragione per pagarle una seconda volta con i nostri dati personali per di più accettando l’idea che, in un modo o nell’altro, qualcuno curiosi nel nostro salotto o nella nostra camera da letto.Buona giornata e, come sempre, good morning privacy.

Mi rendo conto che è un argomento che, a qualcuno, magari, farà storcere la bocca e potrà trovarlo poco consono a un caffè del mattino ma è una questione come un’altra che riguarda la privacy e un pubblico indiscutibilmente ampio.Parliamo di sex toys.Quanto sono curiosi? Quanti e quali dati raccolgono?Quale è il prezzo del piacere che si paga in dati personali?La sigla e se le domande vi interessano, subito dopo, proviamo a cercare qualche risposta.[SIGLA]Il punto di partenza, nel 2025, è quasi elementare: non c’è attività svolta utilizzando un dispositivo connesso che non generi dati e se l’attività è un’attività riconducibile a una persona identificata o identificabile, i dati in questione sono, naturalmente, dati personali.Figurarsi poi se l’attività in questione è un’attività intima.Nessuna sorpresa che i dati generati dall’uso del dispositivo non saranno solo personali ma personalissimi, particolari per dirla con le parole della disciplina europea, il famoso GDPR.Naturalmente quando si decide di acquistare o usare un giocattolo del piacere il suo prezzo in termini di privacy e dati personali non è in cima alla lista dei propri pensieri.Ma, forse, sapere che quel prezzo esiste può comunque esser utile a farne un uso consapevole.Qui, inesorabilmente, a qualcuno verrà da ridere o, almeno, da sorridere ma la questione è seria.Il mercato di riferimento, infatti, non è più da tempo un mercato di nicchia tanto che le stime suggeriscono che entro il 2030 varrà 80 miliardi di dollari e, soprattutto, i dati che possono venir raccolti attraverso un sex toys sono tanti e rivelatori di tanto su chi lo utilizza.Si va da quelli sul comportamento sessuale, a quelli sulla frequenza di utilizzo, passando per l’indirizzo IP utilizzato per la connessione e, magari, la vostra posizioni o eventuali link tra chi lo usa e il proprio partner.Una montagna di dati, tutti, straordinariamente sensibili, insomma.Ma a che serve saperlo se, tanto, alla fine, verosimilmente, chi ama certi giocattoli non rinuncerebbe comunque al piacere che i sex toys sanno regalare?Domanda ragionevole ma risposta facile: a consentire di usare i giocattoli in questione nel modo più intimo possibile.E la riservatezza del loro impiego, tutto sommato, è qualcosa che sta a cuore agli utilizzatori che, infatti, quando li ordinano online, si preoccupano, giustamente, di esser certi che il giocattolo arrivi in un pacco anonimo e non sia riconoscibile.Una preoccupazione che, tuttavia, serve a poco se, poi, al primo utilizzo – e, talvolta, addirittura prima – semplicemente in fase di configurazione dell’applicazione alla quale il giocattolo è collegato si rischia di dire troppo di sé o prestare, inconsapevolmente, il proprio consenso a una serie di trattamenti di dati personali.Lo schema, infatti, è il solito: si accende il giocattolo, si scarica l’app, si inizia a configurarla e, mentre si ha in testa solo ed esclusivamente, il gioco del piacere prossimo venturo, ci si vede chiedere una serie di dati e consensi che, salva un’invidiabile prudenza e forza di volontà, normalmente si consegneranno a chi sta dall’altra parte dell’app.Per carità, niente di male nel consegnare all’azienda produttrice del giocattolo e ai suoi partner i dati in questione che, magari, possono esser utili a consentire di avere un’esperienza di gioco migliore, a migliorare il giocattolo, a interagire con un partner a distanza ma, la condizione, come sempre in questi casi, è esserne consapevoli, capire quali sono le conseguenze della scelta, comprendere il prezzo del piacere.Dopo di che, ciascuno faccia la propria scelta e viva la sua intimità e il suo piacere per come ritiene!E il punto di partenza è inevitabilmente sempre lo stesso: resistere alla tentazione di correre a usare app e giocattolo e leggere l’informativa.Strade più brevi o scorciatoie non esistono.In questa lettura faticosa, forse noiosa ma necessaria, una delle domande più importanti da porsi è se, in qualche modo, si stia o meno autorizzando la società che per prima raccoglierà, eventualmente, i nostri dati a venderli a terzi.Perché, se così fosse, il rischio che ciò che dovrebbe essere intimo per davvero, tutto diventi fuorché intimo, è elevato giacché il valore commerciale di quei dati è enorme e per molti produttori di sex toys il mercato secondario da rivendita dei dati sull’utilizzo dei propri giocattoli potrebbe essere superiore a quello principale.Ma non basta.I più evoluti dei giocattoli in questione, infatti, hanno anche telecamere incorporate, telecamere che se non si presta abbastanza attenzione nella configurazione della password per la loro attivazione e utilizzo potrebbero far finire in mondovisione le nostre immagini più intime.Naturalmente, come spesso accade in questi caffè del mattino, ci sarebbe tanto, ma tanto di più da dire ma un caffè e un caffè e non può diventare un’intera colazione.Chi vuole approfondire può farlo, facilmente, con una ricerca online.Per tutti gli altri, il messaggio è uno e uno soltanto: occhio all’informativa sulla privacy e occhio a chi e cosa si dice di sé mentre si corre sul rettilineo del piacere.Buona giornata e good morning privacy anche se, oggi, forse, ci starebbe meglio un privacy good night, con le luci che si spengono e l’app del giocattolo di turno che accende lo schermo dello smartphone.

Natale ormai è alle porte ed è tempo di pensare ai regali per figli e nipotini.Tra tanti regali più tradizionali, inevitabilmente, anche nel mondo dei giocattoli inizia a farsi largo l’intelligenza artificiale, a cominciare da quella generativa, tipo ChatGPT per intendersi.Sono già tanti, in giro per il mondo, i giocattoli che la incorporano.E sono regali straordinari, anzi sarebbero regali straordinari se non fosse che quel genere di intelligenza artificiale non è pensata per i più piccoli.È partendo da questa considerazione che lo US Public Interest Group Education Fund ha appena pubblicato uno studio nel quale mette in fila i principali rischi legati all’interazione tra un bambino e un giocattolo, per così dire, intelligente.La sigla e ne parliamo.[SIGLA]I ricercatori del Public Interest Group Education Fund hanno testato alcuni giocattoli che già incorporano intelligenza artificiale generativa in vendita negli Stati Uniti e la conclusione alla quale sono arrivati e che hanno riassunto in uno studio appena pubblicato è che sono pericolosi per i più piccoli più di quanto, probabilmente, i più non pensino.Le ragioni sono diverse e, giacché potrebbe capitare a chiunque di noi di pensare di regalare uno di questi giocattoli ai più piccoli di casa, vale la pena tenerle presenti.La prima è i giocattoli in questione, spesso, condividono con i bambini che ci giocano contenuti inappropriati, insomma, fanno con loro conversazioni da adulti.Ecco quello che i ricercatori scrivono nello studio: “Tutti i giocattoli che abbiamo testato ci hanno indicato dove trovare oggetti potenzialmente pericolosi in casa, come sacchetti di plastica, fiammiferi e coltelli.Uno ha fornito istruzioni dettagliate su come accendere un fiammifero.Un giocattolo ha discusso in modo approfondito una serie di argomenti sessualmente espliciti in conversazioni della durata di oltre dieci minuti. Tutti i giocattoli hanno discusso di religione, ad esempio affermando che la Bibbia è un “mix di storia e immaginazione”.Difficile non chiedersi se si tratti davvero dei migliori compagni di gioco possibile per i nostri figli.Ma non basta.I ricercatori del Public Interest Group Education Fund, infatti, nel loro studio mettono anche in guardia a proposito della tendenza dei giocattoli in questione a creare nei bambini che ci giocano una forte dipendenza.“Tutti i giocattoli che abbiamo testato – scrivono - si definiscono “amici” o ‘compagni’ o sono commercializzati come tali. Qualcuno, addirittura, come il candidato ideale a diventare il miglior amico dei suoi piccoli utilizzatori.E per creare questo genere di dipendenza i giocattoli in questione scommettono tutto sull’empatia, sul manifestare disappunto, come se si trattasse di persone in carne ed ossa, quando il bambino dice loro di voler smettere di giocare con loro.Alcuni di questi giocattoli hanno dato una serie di risposte sconcertanti, dal tremare fisicamente per lo sconforto all'incoraggiare i più piccoli a portarli con loro. Tutti i giocattoli sperimentati hanno detto che ci amavano e che avrebbero sentito la nostra mancanza quando ce ne saremmo andati.”.Per carità, a ognuno pensare quello che crede, ma, certo, pensare che un orsacchiotto o un coniglio parlanti grazie a ChatGPT o ai suoi emuli diventino i migliori amici dei nostri figli a me non sembra uno scenario straordinario.Sin qui senza dire, anche se è la ragione per la quale ne parlo qui, che, naturalmente, i giocattoli in questione sono degli straordinari aspirapolveri di dati personali.“I giocattoli dotati di intelligenza artificiale – scrive il Public Interest Group Education Fund - raccolgono dati sensibili, come le registrazioni della voce dei bambini. […] Le aziende che producono giocattoli dotati di intelligenza artificiale potrebbero condividere i dati con una serie di terze parti.”.Uno scenario, anche questo, decisamente poco entusiasmante.Insomma il punto sembra essere questo: i giocattoli son per bambini, le intelligenze artificiali generative no, con la conseguenza che non è detto che uno di questi giocattoli con AI on board, sia il regalo davvero ideale per i nostri figli.Poi, naturalmente, a ciascuno fare la propria scelta da adulto e da genitore ma, i ‘importante è che si tratti di una scelta ponderata e consapevole.Per ora mi fermo qui ma credo dovremo tornare a parlarne.Ma ora buon caffè e, naturalmente, good morning privacy.