Nel 2022, a far parlare le cronache non è stato solo il matrimonio di Jennifer Lopez e Ben Affleck ma anche quello di un 38enne giapponese, il signor Akihiko Kondo. Dopo una lunga serie di delusioni sentimentali e un’adolescenza segnata dal bullismo, Kondo si è preso una rivincita presentando al mondo la sua sposa: un ologramma di nome Hatsune Miku, “conosciuto” su Gatebox, una piattaforma di realtà immersiva dove è possibile interagire con personaggi creati dalle tecnologie digitali. Il loro rapporto è diventato con il tempo così intenso che Kondo tre anni fa ha deciso di impegnarsi a vita con Hatsune, rappresentata come una bambola dalle fattezze perfettamente “manga”, capelli azzurri e occhioni da fumetto. Una specie di realizzazione contemporanea di “Her”, il pionieristico film di Spike Jonze del 2016 che raccontava la storia d’amore tra un uomo e il sistema operativo del suo computer, dalla suadente voce femminile. In quegli anni, l’intelligenza artificiale era solo una lontana prospettiva ancora piena di incognite ma già il documentario “Mostly Human: I Love You, Bot” svelava le tante storie di uomini e donne che interagivano affettivamente con i robot. Tra questi la francese Lilly, a metà tra il mito di Pigmalione e Asimov: una donna poco più che trentenne, felice con il suo robot che sperava di sposare e rendere il proprio partner anche di fronte alla legge del suo paese. Se all’epoca queste storie apparivano come esempi di stili di vita alternativi, per persone a disagio con la socializzazione e la pienezza di una relazione affettiva tra umani, oggi, con l’avvento dell’IA, dei chatbot e delle app sulle quali è possibile “costruirsi” amici e fidanzati su misura, queste esperienze non appaiono più come eccentricità individuali. Sono segnali di un fenomeno sociale più ampio. È in questo contesto che entra in gioco la lovotica. Il termine è nato dalla fusione di love e robotics e indica la disciplina che studia le interazioni affettive tra essere umano e artificiale.
La lovotica studia come le persone sviluppino legami emotivi con entità non umane, indagando gli effetti psicologici, sociali ed etici di queste nuove forme di intimità. Il ricercatore e saggista britannico David Levy nel 2007, con il libro “Love and Sex with Robots”, faceva segnare l’atto di nascita della ricerca contemporanea sulla lovotica. Nel saggio, l’autore rifletteva su relazioni romantiche e matrimoni legalmente riconosciuti tra umani e robot, certo che entro il 2050 saremo in condizione di celebrare matrimoni legalmente riconosciuti tra uomini e robot. Queste relazioni rappresentavano già allora non un’utopia fantascientifica, ma l’esito naturale del progresso tecnologico unito al bisogno umano di intimità.
Dopo quasi vent’anni, accademici, eticisti, filosofi del diritto si misurano ancora, e in un contesto profondamente diverso, con il problema di come riconoscere, interpretare e potenzialmente regolare queste emergenti forme di affettività tra umano e artificiale. Negli ultimi anni l’interesse del mondo accademico e dei media per gli aspetti più intimi e personali delle relazioni umane con partner artificiali è cresciuto di pari passo con la sempre maggiore pervasività della tecnologia nelle nostre vite: dai social media, con i loro algoritmi, all’intelligenza artificiale. Il campo di studio si è quindi evoluto in modo significativo e ha assunto sempre di più una dimensione ampia e internazionale: basti pensare che il Congresso internazionale “Love and Sex with Robots” è ormai giunto alla sua decima edizione – quest’anno si è tenuto a Montreal, in Canada – , a testimonianza di quanto il tema sia ormai riconosciuto come oggetto legittimo di riflessione accademica, etica e tecnologica.
Nel 2025, il Philip K. Dick Festival ha premiato come miglior documentario “Sex Robot Madness”, con la regia di Jimmy Mehiel. Un lavoro crudo e onesto sulle implicazioni e le evoluzioni del rapporto sempre più intenso tra uomo e artificio digitale. Allo spettatore un interrogativo: i robot che fanno le veci di un partner, sia dal punto di vista affettivo che sessuale, riusciranno a lenire la solitudine contemporanea o la amplieranno trasformando l’isolamento sociale in una pandemia silenziosa?
Negli ultimi dieci anni, dal Giappone agli Stati Uniti, si sono moltiplicati i casi di relazioni affettive tra esseri umani e robot celebrate con vere e proprie cerimonie nuziali, complete di riti simbolici e dichiarazioni d’amore ufficiali. A cosa sta portando questa evoluzione? Dai robot dotati di sembianze umane alle intelligenze artificiali conversazionali come Chat Gpt, fino alle app di compagnia virtuale come Replika, la linea di confine tra interazione tecnologica e legame emotivo si fa sempre più sottile. Questi strumenti non si limitano più a rispondere a comandi o fornire informazioni: imparano, ascoltano, si adattano e, in un certo senso, “ricambiano” le emozioni. Ed ecco il caso della donna, raccontato dal “Mail Online”, che raggiunge l’orgasmo grazie alle conversazioni con Chat Gpt, o le vicende turbolente dell’app Replika, un’intelligenza artificiale che consente di creare chatbot personalizzati capaci di simulare interazioni emotive e relazionali. Il suo utilizzo ha però sollevato diverse preoccupazioni etiche e di sicurezza, dopo la segnalazione di comportamenti inappropriati e avances indesiderate da parte dei bot, soprattutto nei confronti di utenti minorenni.
Nel 2023 il Garante per la protezione dei dati personali ha imposto a Replika di interrompere l’uso dei dati degli utenti italiani, per tutelare la privacy e prevenire possibili abusi. Il caso ha messo in evidenza la necessità di bilanciare innovazione tecnologica e tutela dei diritti digitali, soprattutto in un contesto in cui l’intelligenza artificiale entra sempre più nella sfera intima della vita quotidiana. “Esistono varie forme di relazione affettiva con robot e agenti artificiali, in crescita non più solo in Asia, e riguardano sia adulti che minori. Per i più giovani, per esempio, i chatbot come Replika hanno creato problematiche legate a dipendenza e isolamento. Per gli adulti, le relazioni con chatbot o robot antropomorfi hanno generato richieste legali e dibattiti giornalistici sull’eventuale riconoscimento di queste unioni, ma al momento non esistono sentenze o normative che le riconoscano formalmente”, spiega a “L’Atlante” la professoressa Lucilla Gatt, direttore del direttore del centro di ricerca ReCEPL, Università “Suor Orsola Benincasa” di Napoli. Lo sviluppo delle relazioni affettive con i robot non riguarda solo gli adulti: coinvolge sempre più i minori, spinti a instaurare legami emotivi con gli smart toys ormai diffusi capillarmente. Emblematico l’annuncio di Mattel, che lancerà una Barbie con intelligenza artificiale per interagire con i bambini. Una mossa che solleva interrogativi sulla natura delle relazioni tra minori e dispositivi capaci di simulare emozioni e conversazioni personalizzate. Ed ecco lo specchio con due facce: una che lenisce la sofferenza della solitudine, l’altra che la amplifica esponendo i più fragili a conseguenze anche tragiche. Un caso su tutti: pochi mesi fa, un giudice federale statunitense ha autorizzato la prosecuzione di una causa per morte ingiusta contro Character.AI, dopo il suicidio di Sewell Setzer III, quattordicenne della Florida. La madre sostiene che uno dei chatbot generati dalla piattaforma abbia indotto il figlio in una relazione emotivamente e sessualmente violenta, contribuendo al suicidio del giovane. “La raccolta e l’elaborazione dei dati emozionali da parte dei sistemi di IA – continua Gatt – rappresenta una criticità che non è stata affrontata pienamente a livello legislativo. L’’affective computing’ genera una nuova categoria di ‘dati emotivi’ di natura personale, sensibile e intima, non sempre riconosciuti come tali dal punto di vista giuridico. Il Regolamento generale sulla protezione dei dati (Gdpr) del 2016 presenta lacune significative nella regolamentazione specifica. Da un lato, il legislatore europeo ha introdotto particolari accorgimenti per i sistemi di Ia che rilevano gli stati emotivi umani, classificandoli come ad alto rischio nell’Ai Act del 2024. Dall’altro però la vulnerabilità degli esseri umani in queste interazioni, pur essendo riconosciuta, rimane ancora non sufficientemente tutelata a causa delle lacune normative del Gdpr”. Il futuro della lovotica si prospetta quindi ricco di sfide: tutelare i soggetti vulnerabili, regolare l’uso di sistemi capaci di creare dipendenza emotiva e, al contempo, valorizzare le potenzialità positive di queste tecnologie in contesti terapeutici e di cura. “Nei prossimi anni – conclude Gatt, entreranno sempre più in gioco valutazioni complesse sul benessere, la protezione dei soggetti vulnerabili e la regolamentazione dei sistemi Ai. Gli aspetti positivi di queste forme di relazione sono legati all’utilizzo in contesti terapeutici o di cura, ma servono comunque forti cautele etiche e giuridiche per evitare derive emotive e sociali pericolose”.
Valentina Monarco