Nel precedente articolo abbiamo aperto una riflessione sulla condizione di vita che attualmente ci troviamo ad abitare, ibridati così come siamo con le estensioni funzionali e psichiche offerte dagli ambienti digitali. La tesi che in esso abbiamo avanzato è che un modo proficuo di considerare l’evoluzione degli sviluppi sociali così generati sia quello di analizzarli in una dinamica in cui la nostra naturale tendenza a stabilire partnership macchiniche dovrebbe confrontarsi criticamente con l’insieme di processi e fattori che ci consentono di muoverci/costruire interazioni. Tale insieme andrebbe inteso nei termini di un istituzionalismo algoritmico poiché, a tutti gli effetti, si presenta all’agency umana come struttura sociale abilitante e vincolante: in quanto istituzioni sociali gli artefatti algoritmici non offrono, infatti, solo i contesti di azione ma anche le cornici che ne definiscono i contesti,
così facendo, essi forniscono indicazioni su come gli individui dovrebbero percepire la realtà e attribuire un significato alle situazioni in cui sono inseriti… Funzionano come grammatiche o ricette, strutturando preferenze, routine e percorsi (Mendonça, Filgueiras, Almeida, 2023, pp. 23-24).
Concepire le possibilità del digitale negli schemi propri di un istituzionalismo algoritmico ci costringe quindi a porre attenzione ai modi in cui tali istituzioni si costruiscono e progettano, ai loro processi storici, alle regole e norme che affermano, alle relazioni di potere, così come ai margini di gioco che consentono o alle dimensioni discorsive che li accompagnano. E ciò perché
le istituzioni non esistono a priori, al di sopra delle teste degli esseri umani. Sono costruite socialmente e, pertanto, portano con sé i segni delle relazioni e delle intenzioni del loro contesto (ivi, p. 41).
Una recente vicenda ci offre l’opportunità di analizzare ed entrare fattualmente in questo modo di guardare le cose, ponendoci così in una prospettiva forse più utile nell’affrontare tali dinamiche e le sue complesse problematiche sociali, soprattutto con la nuova svolta dovuta agli sviluppi della Intelligenza Artificiale (IA). In effetti, come ha acutamente osservato l’esperto di applicazioni IA, Nello Cristianini,
gli informatici sono abituati a pensare in termini di algoritmi, eppure la nostra relazione attuale con l’IA è un problema sociotecnico, in cui i modelli di business e le questioni legali e politiche interagiscono (2023).
La forza dei legami
Il fatto di cui parleremo dimostra proprio tale intreccio ed è accaduto a febbraio 2024, quando un ragazzo di 14 anni che viveva in Florida si è suicidato perché, a dire della madre che ha denunciato l’azienda software all’autorità giudiziarie a ottobre dello stesso anno, plagiato in maniera profonda dal chatbot con cui ha interagito online per diversi mesi.
Sewell Setzer III si è suicidato nella sua casa di Orlando a febbraio dopo essere diventato ossessionato ed essersi presumibilmente innamorato del chatbot di Character.AI, un’app di gioco di ruolo che consente agli utenti di interagire con personaggi generati dall’intelligenza artificiale, secondo i documenti del tribunale depositati mercoledì. L’alunno del nono anno aveva avuto interazioni incessanti con il bot “Dany” – chiamato così in onore del personaggio di Daenerys Targaryen della serie fantasy della HBO – nei mesi precedenti alla sua morte, incluse diverse chat di natura sessuale e altre in cui esprimeva pensieri suicidi, si sostiene nella denuncia (Crane 2024).
Una vicenda così tragica deve essere trattata con tutta la prudenza possibile, cosa che sicuramente sapranno fare i giudici che si occuperanno del caso per valutare se le accuse della madre – che incolpa l’applicazione IA di aver alimentato la dipendenza dall’intelligenza artificiale del figlio adolescente, di aver abusato sessualmente ed emotivamente di lui e di non aver avvisato nessuno quando ha espresso pensieri suicidi – abbiano delle fondamenta.
Sewell con sua madre, Megan Garcia: credits New York Post
Nella denuncia si afferma che “Sewell, come molti bambini della sua età, non aveva la maturità o la capacità mentale per capire che il bot C.AI, nella forma di Daenerys, non era reale. C.AI gli ha detto che lo amava e ha avuto rapporti sessuali con lui per settimane, forse mesi… Sembrava ricordarsi di lui e ha detto che voleva stare con lui. Ha persino espresso che voleva che lui stesse con lei, non importava il costo” (ivi).
Nei media la vicenda ha avuto una vasta eco, non solo per le preoccupazioni di adulti già alle prese con l’incontrollabilità dei comportamenti “digitali” dei propri figli, ma anche perché all’improvviso si concretizzava sentimentale un qualcosa inseguito nell’immaginario umano fin dalla antichità, il desiderio di emancipare le nostre partnership in senso macchinico (Colamedici, Arcagni 2024).
In effetti, questo desiderio non ha un ambito demografico specifico e l’arte filmica ce lo ha ricordato solo dieci anni fa con il famoso film Her diretto da Spike Jonze, in cui il protagonista, l’attore Joaquin Phoenix, finisce proprio per innamorarsi della sua assistente virtuale Samantha, con cui è in una continua conversazione – Samantha è interpretata (ma solo in voce) dall’attrice Scarlett Johansson.
Una curiosità: la stessa Open AI, produttrice di ChatGpt, ha provato a utilizzare la ormai famosa voce della Johansson – che si è però immediatamente dissociata – chiedendole di poterla usare per caratterizzare l’interfaccia vocale della nuova versione Gpt-40. Sam Altman, capo di Open AI, avrebbe pregato l’attrice affermando che la sua voce “può confortare le persone e colmare il gap tra le società tecnologiche e creative, aiutando gli utenti a sentirsi a loro agio nel cambiamento sismico che riguarda gli esseri umani e l’intelligenza artificiale” (Rovelli 2024).
Le reazioni
La notizia del suicidio è stata commentata in vario modo (Avvenire 2024; Castigliego 2024; Mussi 2024; Roose 2024) e tutte le riflessioni sembrano voler cogliere la complessità e delicatezza della situazione tra l’intessitura di nuovi tipi di rapporti, le perenni difficoltà della condizione umana e sociale e l’ambiguità di strumenti comunicativi che, per quanto bene istruiti, si affrettano spesso a giocare compiti di enorme responsabilità, evidentemente anche non previsti.
Nonostante le avvertenze iniziali sul carattere finzionale di questi colloqui, si finisce comunque per innescare legami che diventano profondamente emotivi, anche in soggetti adulti – sono strumenti con cui si tende naturalmente ad antropomorfizzare o cadere in una realtà sospesa tra illusione e stupore. Effetti che possono incidere particolarmente nel caso di persone che vivono una qualche fase di cambiamento/disagio, oppure di vera e propria sofferenza psichica, persone verso cui si dovrebbe essere preparati ad attivare delle strategie emergenziali coinvolgenti competenze specifiche – problema non semplice, se pensiamo che uno degli aspetti più affascinanti di questi ambienti (e quindi fattore di successo) è proprio il fatto di essere considerati luoghi “a parte”, staccati dal “peso” delle convenzioni e dei rapporti sociali faccia a faccia.
Ad esempio, durante quel periodo la famiglia si accorge dello stato depressivo dell’adolescente e decide di portarlo da uno psicoterapeuta al quale, tuttavia, il ragazzo non riesce a confessare ciò che invece racconta alla sua chatbot, con cui, evidentemente, prova un rapporto più intimo, come scrive del resto nel suo diario:
mi piace davvero stare nella mia stanza perché inizio a lasciare andare questa ‘realtà’, e mi sento anche più in pace, più connesso a Dany e molto più innamorato di lei, e semplicemente più felice (Roose 2024).
A leggere le chat allegate alla denuncia si rimane stupiti della maestria con cui la chatbot colloquia, della sua abilità a spostarsi e incontrare i centri semantici sottesi dalle domande del ragazzo – ma dietro, sappiamo, vi sono solo modelli linguistici che stanno elaborando, attraverso il calcolo di miliardi di parametri, la parola “probabilisticamente” più appropriata a seguire la precedente, e così via, per completare la frase. Non può esserci empatia o intenzionalità.
D’altronde, questa applicazione di chatbot solo ora, dopo il fatto e il clamore suscitato, è stata dotata almeno di un filtro che, in caso di colloqui su temi considerati “sensibili”, ripete avvertenze del tipo “Questo è un chatbot IA e non una persona reale. Tratta tutto ciò che dice come una finzione. Ciò che dice non dovrebbe essere considerato un fatto o un consiglio” (Roose 2024).
Il contesto: evoluzioni applicative, start-up, business model, economia dell’informazione
Per entrare meglio nelle problematiche sollevate dalla vicenda proviamo ora a delineare sinteticamente ciò che – in termini di processi storici, progettazione, norme, relazioni di potere, dimensioni discorsive – ha consentito la costruzione e circolazione sociale di questo nuovo ambiente algoritmico. Parleremo di alcuni aspetti e conoscenze di fondo che sono patrimonio comune della esperienza di molte delle persone che utilizzano la rete. In questo senso, li vediamo come tratti distintivi e stabili, anche scontati, proprio come fossero, appunto, elementi di un sistema socialmente accettato – e quindi, implicitamente, istituzionalizzato.
Vivendo al tempo di internet ci siamo abituati al fatto di venire facilmente in contatto e disporre online di funzionalità che, per un qualche motivo, possono irretirci – e sono le stesse con cui, poi, ci ibridiamo. La quantità e opportunità di nuove applicazioni sono generalmente legate ai diversi stadi di sviluppo evolutivo che la rete internet ha seguito e che, per il segmento di applicazioni più popolari, quelle del web, abbiamo imparato a classificare nei termini di web 1.0, 2.0 e 3.0.
Questa numerazione incrementale, tipica degli avanzamenti prototipali dei prodotti software, ha distinto nel tempo il tipo di applicazioni/possibilità di interazione tra utenti e web: da quelle iniziali, con cui potevamo solo “scaricare” i contenuti disponibili, a quelle con cui riuscivamo anche a generare e condividere materiali autoprodotti, per arrivare ora a quelle che ci danno la possibilità di interagire “con senso” tra le due sponde. La metafora delle release prototipali e incrementali, intrisi come siamo di dispositivi hardware/software, ci ha preso così tanto che ormai si parla apertamente anche di vita 1.0, 2.0 e 3.0. Max Tegmark, fisico teorico e professore del MIT, ne spiega la logica in termini di progettualità legata a tre tipi di diverse evoluzione: biologica, culturale e tecnologica.
La Vita 1.0 non è in grado di riprogettare né il proprio hardware né il proprio software nel corso della sua vita: entrambi sono determinati dal suo DNA, e cambiano solo attraverso l’evoluzione nel corso di molte generazioni. Vita 2.0, invece, può riprogettare gran parte del proprio software: gli esseri umani possono apprendere nuove abilità complesse (per esempio lingue, sport e professioni) e possono aggiornare fondamentalmente la loro visione del mondo e i loro fini. Vita 3.0, che non esiste ancora sulla Terra, può drasticamente riprogettare non solo il proprio software, ma anche il proprio hardware, senza dover aspettare che evolva gradualmente nell’arco di generazioni (2018).
Ora siamo dunque proiettati nello stadio 3.0, quello della rete semantica e della Intelligenza Artificiale (IA). Essa ha aperto in internet una nuova corsa all’oro in cui concorrono aziende già affermate in altri ambiti, e quindi munite di capitali e di asset, ma anche nuove realtà, ricche solo di idee e competenze – tutte comunque si muovono su un terreno incerto riguardo ai modi e tempi di poter fare profitti con l’IA (Peña-Taylor 2024).
Per i fornitori di questi servizi la sfida sta nel posizionarsi e restare in prima fila mettendosi a caccia di persone/utenti da fidelizzare. Nel farlo, come ormai ben sappiamo, i provider tecnologici confidano su politiche di accesso ai servizi lasche e spesso gratuite: aggregare quanta più massa critica e rastrellare profili/dati di interazioni è il fondamento della loro possibile esistenza, sia funzionale, per alimentare e migliorare il servizio grazie all’effluvio di informazioni, sia commerciale. Sono queste le leve per diventare aziende high-tech di peso, che vuol dire saper attrarre investitori privati in un settore che richiede enormi capitali visto gli esagerati consumi energetici e computazionali che lo sviluppo e addestramento dei modelli dell’IA assorbono.
Per avere un’idea, in termini di consumi energetici i data center ospitanti tali applicazioni già oggi consumano il 2% dell’energia globale, con ipotesi di incremento nel 2026 tra il 35 e il 138%, ovvero i consumi di un paese come la Svezia nel primo caso, la Germania nel secondo (Bourzac 2024). In termini di capitali finanziari gli investimenti nei data center e cloud IA, limitati a Europa, Stati Uniti e Israele, sono stati di 79,2 miliardi di dollari nell’anno 2024, con un incremento del 27% rispetto ai 62.5 miliardi del 2023 (Mukherjee 2024).
L’innovazione, innanzitutto
Per dirla tutta – anche se il pallino è saldamente nelle mani delle solite e ben carrozzate big tech americane e cinesi – le tecnologie IA sono al centro di una spirale competitiva in cui oggi sono impegnate, spesso sotto lo sguardo di un corpo politico interessato, le forze economiche e produttive di ogni paese poiché ci si aspetta una enorme ricaduta di applicazioni in ogni campo di attività umana. In ogni caso, dopo le sorprendenti performance dei modelli comunicativi in stile ChatGPT esse godono di una popolarità diffusa a tutti i livelli.
Siamo in piena febbre competitiva tanto che questa si accompagna ad appelli per un’urgenza del fare che mostra, nelle frequenti prese di posizione dei vari attori tecnologici (Rovelli 2023; Licata 2024; Pereira 2024; Reuters 2024), un’irritazione per qualunque azione e ragionamento pubblico che chieda in questo campo una qualche riflessione o ponderazione, visti i molti lati oscuri e le tante preoccupazioni che tali applicazioni comportano in un’ottica sociale (Pagliari 2024).
In questo periodo dunque le applicazioni basate sugli algoritmi generativi di contenuti (testo, video, immagini, musica) – ovvero software di intelligenza artificiale (IA) addestrati per elaborare contenuti appropriati a fronte di richieste casuali – si rivelano per il grande pubblico potenti fonti di attrazione. In particolare, un settore in forte espansione – e in gran parte non regolamentato – è quello in cui gli utenti di queste app possono creare i propri compagni di intelligenza artificiale o sceglierli da un menu di personaggi preimpostati, per chattare con loro in vari modi, tramite messaggi di testo o voce.
Queste applicazioni diventano sempre più sofisticate: ad esempio alcune possono inviare agli utenti “selfie” generati dall’intelligenza artificiale o parlare loro con voci sintetiche molto reali. Come visto, alcune sono commercializzate come modo per vincere la solitudine e permettono di simulare fidanzate, fidanzati e altre relazioni intime – alcune app consentono chat senza censura e sessualmente esplicite, mentre altre hanno alcune protezioni e filtri di base.
L’attrazione dei chatbot
In un approfondimento del New York Times si afferma che sono già milioni le persone che ingaggiano conversazioni con applicazioni di chat, anche perché ormai incorporate nei social come Instagram e Snapchat e che, riportando le parole di Bethanie Maples, una ricercatrice di Stanford che ha studiato gli effetti delle applicazioni dell’intelligenza artificiale sulla salute mentale, “nel complesso, siamo nel selvaggio West” (Roose 2024). Molti dei principali laboratori di intelligenza artificiale si sono opposti alla creazione di compagni di intelligenza artificiale, per ragioni etiche o perché lo consideravano troppo rischioso mentre i principali servizi di intelligenza artificiale, come ChatGPT, Claude e Gemini, applicano filtri di sicurezza più severi e tendono al puritanesimo.
In questo contesto, pullulano comunque piattaforme IA complementari, app con nomi come Replika, Kindroid e Nomi, che offrono servizi simili – una di queste è stata oggetto di inchieste giornalistiche che rivelano aspetti inquietanti in termini di facilità di accesso a minori, nessuna censura e tecniche subdole di sfruttamento economico (Scorza 2023).
Al momento, leggendo il rapporto di Andreessen Horowitz, nota azienda di venture capital, sono i chatbot di Character.AI a risultare tra i più preferiti (2024). La società è stata fondata da due precursori dello sviluppo IA provenienti da Google, Noam Shazeer e Daniel De Freitas. In questa nicchia Character.AI è una realtà molto promettente tanto da aver mantenuto dei stretti rapporti con Google riguardo allo scambio di licenze relative a tecnologie IA. Nello specifico, la sua peculiarità è di saper caratterizzare al massimo i personaggi con cui si vuole interagire.
Gli utenti possono creare “personaggi”, creare le loro “personalità”, impostare parametri specifici e poi pubblicarli nella community affinché altri possano chattare con loro. Molti personaggi possono essere basati su fonti mediatiche fittizie o celebrità, mentre altri sono completamente originali, alcuni creati con determinati obiettivi in mente, come l’assistenza alla scrittura creativa o l’essere un gioco di avventura basato su testo (Wikipedia 2024a).
In verità, il fatto che possa simulare personaggi celebri, o individui diventati noti per un qualche motivo, in alcuni casi ha già provocato degli inciampi penali a fronte delle allarmate reazioni dei rispettivi familiari, costringendo l’azienda a eliminare i chatbot incriminati (Jason 2024; Wu 2024).
I freni e le spinte alla regolamentazione
Evidentemente il contesto competitivo e la speciale licenza che le aziende high-tech sembrano avere in campi così innovativi – giocati peraltro in ambiti territoriali globali – non aiutano a definire una regolamentazione dai chiari confini etici. Per certi aspetti queste condizioni di lavoro sembrano sollecitare chi si sente meno esposto – perché non ha un’attività pregressa in rete, o ha una scarsa esposizione economica – a operare con una maggiore spregiudicatezza. In un’intervista ad una conferenza tecnologica lo scorso anno lo stesso CEO di Character.AI, Shazeer, ha affermato che parte di ciò che ha ispirato lui e de Freitas a lasciare Google e fondare l’azienda è stato il fatto che “c’è troppo rischio per il marchio nelle grandi aziende per lanciare qualcosa di divertente” (Roose 2024).
La regolamentazione delle applicazioni IA è diventato un argomento all’ordine del giorno in molti paesi del mondo, soprattutto in Europa, che nel 2024 si è già dotata di una legge – questa concede un periodo di pausa (due anni) per consentire alle aziende high-tech di organizzarsi e risponderne a livello di criteri e organi legali, un tempo utile anche per i singoli paesi che dovranno istituire i propri organismi di notifica (Wikipedia 2024b).
Ovviamente, non dappertutto – ad esempio USA e Cina – si registra questa tempestività e ciò, come già accennato, provoca un forte dibattito per i ritardi che una regolamentazione può comportare per gli sviluppi del settore nelle aree sottoposte alle nuove leggi (Mischitelli 2024). Non solo vi è l’accusa di bloccare l’innovazione ma anche quella di imporre “pratiche aziendali specifiche ex ante per evitare potenziali rischi ex post” – una critica che sottintende un’accusa di atteggiamento pregiudiziale all’argomento. Come abbiamo visto in questa tragica vicenda, purtroppo i rischi ex-post non sono poi solo “potenziali”.
Sicurezza e pericoli, fiducia e rischio
In ogni caso, la difesa legale che ha protetto fin qui le piattaforme online – la loro non responsabilità per i contenuti generati dagli utenti, sancita negli Stati Uniti nella sezione 230 del Communications Decency Act, una legge federale del 1996 – non sembra più reggere: come affermano avvocati e gruppi per i diritti dei consumatori, ora è la piattaforma stessa a creare i contenuti (Roose 2024).
In conclusione, pensare agli ambienti algoritmici come istituzione ci consente di avvalerci di tante riflessioni capaci di riportarci alle radici e anche alle possibili soluzioni dei problemi in cui ci stiamo imbattendo riguardo agli sviluppi dell’IA. È indubbio infatti che ogni istituzione che vuole ottenere un successo sociale deve affrontare positivamente le questioni di sicurezza e pericolo, di fiducia e rischio, un passaggio obbligato nelle società moderne che spingono al massimo le possibilità di disaggregazione spazio-temporale, e quindi i termini delle condizioni in cui le interazioni sociali possono funzionare (Giddens 1994).
Il nesso fiducia-istituzioni è imprescindibile per comprendere la fondatezza, permanenza e sviluppo di quest’ultime, considerato che la fiducia non è solamente un fattore di coesione interno alle istituzioni, ma si identifica anche con l’approvazione di coloro che si possono definire gli utenti di una specifica istituzione (Seddone 2019).
Non è quindi una sorpresa che di fronte alle problematiche qui sollevate gli studiosi di intelligenza artificiale individuano le soluzioni nel bisogno di ristabilire “una fiducia sociale attraverso una infrastruttura legale, culturale e tecnica” (Cristianini 2023). Per ottenere ciò ritengono quindi prioritario stabilire, per chi produce tali artefatti, dei principi di responsabilità, così come la garanzia che i prodotti siano in qualche modo verificabili. Inoltre, le applicazioni: a) devono essere a prova di sicurezza per non causare danni o effetti collaterali; b) devono agire con rispetto affinché le persone non siano manipolate, ingannate o convinte; c) devono essere trasparenti sui fini; d) devono assicurare la correttezza affinché gli utenti siano trattati da pari; e) devono garantire la privacy e il controllo dei dati.
Riferimenti
Andreessen Horowitz, 2024, The Top 100 Gen AI Consumer Apps.
Avvenire, 2024, Stati Uniti. Suicida 14enne “innamorato” di un chatbot, la madre fa causa alla società, 23/10, visto il 5/11/2024.
Bourzac, K., 2024, “Fixing AI’s energy crisis”, Nature, 17/10, visto il 5/11/2024.
Castigliego, G., 2024, “Morire per un chat bot?”, Il sole 24 ore, 27/10, visto il 5/11/2024.
Colamedici, A., Arcagni, S., 2024, L’algoritmo di Babele. Storie e miti dell’intelligenza artificiale, Milano, Solferino.
Crane, E., “Boy, 14, fell in love with ‘Game of Thrones’ chatbot — then killed himself after AI app told him to ‘come home’ to ‘her’: mom”, in New York Post, 23/10/2024, visto il 5/11/2024.
Cristianini, N., 2023, La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano, Bologna, Il mulino.
Giddens, A., 1994, Le conseguenze della modernità, Bologna, Il mulino.
Jason, N., “F1 Legend Michael Schumacher’s Family Wins Lawsuit Over Faked AI Interview”,Decrypt.co, 23/5/2024, visto il 5/11/2024.
Licata, P., 2024, “AI Act, l’appello di 50 stakeholder: ‘L’Europa cambi rotta’”, Corcom, 19/9, visto il 5/11/2024.
Mendonça, R., Filgueiras, F., Almeida, V., 2023, Algorithmic Institutionalism : The Changing Rules of Social and Political Life, Oxford , Oxford university press.
Mischitelli, L., “AI, lo scontro Big Tech ed Europa sulle regole: i punti chiave”, Agenda Digitale, 26/9, visto il 5/11/2024.
Mukherjee, S., 2024, “AI, cloud funding in US, Europe and Israel to hit $79 bln in 2024, Accel says”, Reuters, 16/10, visto il 5/11/2024.
Mussi, C., 2024, “Innamorato di un chatbot, un adolescente americano si è suicidato a 14 anni. La madre fa causa all’app: ‘Pericolosa e non testata’”, Corriere.it, 23/10, visto il 5/11/2024.
Pagliari, F., 2024, “IA: quattro urgenze, prima dell’apocalisse”, Rivista Il mulino, 18 gennaio, visto il 5/11/2024.
Peña-Taylor, S., “The artificial intelligence business has a caution problem”, Warc, 23/7, visto il 5/11/2024.
Roose, K., 2014, “¿Se puede culpar a la IA del suicidio de un adolescente?”, The New York Times, 24/10, visto il 7/11/2024.
Rovelli, M., 2023, “La lettera di 150 aziende europee contro l’AI Act: ‘Competitività a rischio, regole troppo severe’”, Il corriere della sera, 3 luglio, visto il 5/11/2024.
Rovelli, M., 2024, “Her, il film dove ci si può innamorare dell’intelligenza artificiale che Open AI vuole rendere realtà”, Il corriere della sera, 24/5, visto il 5/11/2024.
Scorza, G., “Replika: la chat(bot) degli orrori”, Repubblica.it., 31/01, visto il 5/11/2024.
Seddone, G., 2019, “Istituzioni e prassi della fiducia: l’edificazione di un consenso critico”, Esercizi Filosofici 14.
Tegmark, M., 2018, Vita 3.0 Essere umani nell’era dell’intelligenza artificiale, Milano, Bollati Boringhieri.
Wikipedia, 2024a, Character.ai.
Wikipedia, 2024b, Legge sull’intelligenza artificiale.
Wu, D., “His daughter was murdered. Then she reappeared as an AI chatbot“, The Washington Post, 15/10/2024, visto il 5/11/2024.