Digitale: etica, intelligenza artificiale e resurrezione cibernetica

Illustrazione

Icone 8 / Ahi!

In una delle sue pubblicazioni più recenti, Nick Srnicek, professore di economia digitale al King's College di Londra, definisce il capitalismo delle piattaforme come quello basato su piattaforme digitali globali che funzionano come infrastruttura di data mining. Queste piattaforme utilizzano le informazioni come risorsa e traggono i loro vantaggi dalle reti, dal monitoraggio delle comunicazioni e dalla monetizzazione dei dati. In origine, le piattaforme social avevano lo scopo di stimolare la socializzazione e la condivisione di contenuti che trovavamo stimolanti o divertenti. Tuttavia, il fenomeno è mutato in ciò che descrive Alex Rosenblat nel suo libro uberlandie come l'economia della condivisioneeconomia di condivisione), un “artefatto del populismo economico”. Attualmente, queste piattaforme si presentano come fornitori di servizi; Un esempio è il social network Blued, rivolto alla comunità gay cinese, che include un'ampia gamma di servizi monetizzati come diffusione, flusso notizie, giochi, acquisti online o consigli sulla maternità surrogata all'estero. Il stelle filanti Sono considerati “beni aziendali”, strumenti di estrazione di flussi di dati, perché funzionano a partire da algoritmi, ovvero istruzioni per elaborare i dati generati. L'asimmetria tra imprese e interessati (persone interessate) è enorme, tanto che le Nazioni Unite hanno pubblicato un rapporto nel maggio 2020 dal titolo eloquente: Proprietà economiche dei dati e tendenze monopolistiche dell'economia dei dati: politiche per limitare una possibilità "orwelliana".

Srnicek definisce il capitalismo delle piattaforme come quello supportato dalle piattaforme digitali che funzionano come infrastruttura di data mining

Questi spazi virtuali ci affascinano perché rimandano a una sorta di eden primordiale, aggiorna una sorta di "mito dell'abbondanza" che vende l'idea che tutto sia dentro e che se non partecipi resti fuori dal mondo. Tuttavia, lungi dall'apparente libero arbitrio, lo spazio decisionale dell'utente è limitato da un piccolo gruppo di scelte migliori, nel primo filtraggio di cui l'utente ha delegato al sistema di raccomandazione algoritmica delle applicazioni. Questo sistema sta diventando sempre più sofisticato; Ad esempio, l'applicazione di contatto Tinder utilizza già Rekognition, un software di intelligenza artificiale (AI) sviluppato da Amazon per classificare le foto, e stabilire così relazioni tra persone basate su elementi comuni, al di là delle loro preferenze espresse nei profili. Le piattaforme si occupano anche di ricordare per noi. Dal 2016 il tempo algoritmico delle reti è in fase di modulazione kairologicamente i nostri momenti più rilevanti, liberandoci dalla necessità di meditarli per noi stessi. Tutte queste piattaforme raccolgono dati, valutano e quantificano da mira, Azionivisite… che dà vita ad una “società di rating” (azienda di marca), un tipo di fonderia senza fine; inoltre isolano e segmentano gli utenti in base a filtri a bolle, che polarizzano opinioni e creano circostanze: sul social network puoi dire quello che vuoi e non vuoi vedere; il risultato però sfugge alle nostre istruzioni, ed è in definitiva l'algoritmo che sceglie ciò che ci passa davanti, condizionando così le nostre opinioni e le nostre azioni. Da qualche anno, inoltre, le applicazioni hanno imparato, grazie a complessi programmi di elaborazione del linguaggio naturale, e da questo apprendimento dialogano con noi (chatbotassistenti vocali, ecc.), progettare e creare.

Negli anni '80, Shoshana Zuboff ci ha avvertito che i computer non solo automatizzano le attività (come Ford ha fatto una volta con il sistema della linea di produzione), ma che le informazioni vengono generate in ogni processo di automazione e che questi dati vengono utilizzati per prevedere il comportamento dell'utente e modificarlo in qualche modo. Il risultato è un prodotto predittivo, che lei chiama dati comportamentali– che si nutre di modelli comportamentali. Ciò che viene commercializzato è il futuro; cioè, tutto ciò che metti in queste fabbriche comportamentali è tutto ciò che perderai. Dal 2012 sono stati condotti molti studi sulla capacità predittiva di questi strumenti basati su un'analisi esaustiva di mira (Vedi ad esempio gli esperimenti tecno-accademici di Michel Kosinski). Tuttavia, è dal 2015 che molte aziende stanno indirizzando le proprie strategie verso l'intelligenza artificiale predittiva. Allora diventa rilevante apprendimento automatico –o macchine di apprendimento automatico– basate su reti neurali, come Google Deep Mind.

Gli approfondimenti vengono generati in ogni automazione e questi dati vengono utilizzati per prevedere e modificare il comportamento degli utenti.

Questo tipo di algoritmi, al di là dell'abbagliamento che possono provocare, creano forme di ordine sociale inclusive ed esclusive. Studi come quelli delle già citate Shoshana Zuboff, Cathy O'Neil, Virginia Eubanks o Kate Crawford attirano la nostra attenzione sulla capacità di penetrazione delle tecnologie basate sull'intelligenza artificiale e su come, a causa della loro programmazione distorta, finiscono per riprodurre gli stessi pregiudizi e violenze che persistono nella nostra società: razzismo, classismo, misoginia... Tutte le informazioni che forniamo tornano a noi e ci modellano; cioè modella la nostra visione del mondo, così come il nostro rapporto etico e morale con gli altri, poiché influenza quello che Darwin chiamava "potere dei sensi", cioè l'insieme delle facoltà associate al cervello. In un recente articolo per il Centro di cultura contemporanea di Barcellona (CCCB), Karma Peiró e Ricardo Baeza-Yates hanno affermato che una soluzione parziale attraverso l'intelligenza artificiale sarebbe quella di creare un assistente virtuale che fungesse da voce della coscienza e ci allerterebbe al pregiudizio – di azione o giudizio – e alle possibili manipolazioni parziali di sistemi intelligenti. Tuttavia, delegando la nostra autocoscienza alle macchine, non faremmo un passo verso la logica della sorveglianza e della punizione? verso una minore comprensione del mondo?; Verso la totale incompetenza nella gestione dei conflitti personali e collettivi?

A fine gennaio 2021 si è concretizzata la possibilità che queste intelligenze artificiali potessero fare ciò che gli esseri umani non sono in grado di fare: resuscitare i morti, ovvero simulare coscienze da un "potere sensoriale" sintetico applicato alla nostra scia digitale. Microsoft ha depositato un brevetto AI per sviluppare a chatbot che ti permetterebbe di interagire con ricreazioni digitali di persone care defunte o simulare un dialogo con te stesso a un'età specifica. Il sistema raccoglierebbe un pastiche di risposte predefinite da immagini, dati vocali, post sui social media ed e-mail del defunto. Abbiamo già visto i primi test, come quello descritto nel documentario sudcoreano Incontrartiin cui una ragazza morta è stata ricreata utilizzando un ologramma basato su informazioni fornite ai programmatori, o quando Kanye West ha dato a Kim Kardashian un ologramma del padre defunto in cui ha pronunciato un breve e commovente discorso mai avvenuto, ma che ha ricomposto frammenti di espressioni, di dati reali. In nessuno dei due casi c'era alcuna possibilità di interazione. Questa possibilità esiste però nel progetto pilota Eterni.me, un'applicazione che mira a permettere agli utenti di interagire con avatar di persone decedute. Infatti il ​​brevetto Microsoft si occupa proprio di questo, ed è un avatar (simile a un tamagochi) che funge da biografo del futuro defunto. In breve tempo, 46.000 persone si sono iscritte all'esperienza. Ciò che qui viene disegnato è la figura del transumano, il sogno prometeico di magnati come Raymond Kurzweil, promotore della singolarità tecnologica; ovvero abbandonare il guscio umano – il corpo – e diventare informazione, come aspira il protagonista della serie televisiva anni e anni.

Microsoft ha depositato un brevetto AI per sviluppare un "chatbot" che consentirebbe l'interazione con le ricreazioni digitali dei propri cari defunti

Se la morte non è l'asse attraverso il quale diamo significato alle nostre vite, allora quali saranno le esperienze determinanti che daranno forma alle nostre vite? soggettività et nos rituels sociaux ? E se tutto ciò che facciamo in questa vita è immagazzinato nella nostra iper-vita, non sarebbe un fattore condizionante troppo potente che porterà all'autocensura, al controllo delle nostre azioni e della nostra moralità, come è successo con il fondamentalista applicazione della religione? Et étant donné que l'être humain se donne du sens à partir de l'expérience et évolue avec elle, comment cette conscience va-t-elle évoluer ? Assurement, eliminar la mort de nos vies peut implicer une perdita della dimensione etica della vita. Gli esseri umani hanno lavorato per secoli sul rapporto tra conoscenza, cura di sé, rapporto tra coscienza e colpa e conoscenza della morte. A questo va aggiunto quanto diceva Montaigne: “Chi impara a morire impara a non servire. Saper morire ci libera da ogni servitù e da ogni coercizione”. La possibilità di rivivere o essere ricreati in un corpo artificiale riduce la vita a una serie di versioni, una sorta di ipotesi identitaria. Quello che siamo allora sarebbe solo una versione beta, provvisoria, materia prima (materia prima) la cui versione ingrandita (digitale) sarebbe stata composta una volta morto il corpo. Ci renderebbe servi del nostro futuro, "esseri disciplinati per sembrare macchine", come dice Kate Crawford, vivendo una vita in atti diversi. Questa pluralità di versioni non ha nulla a che fare con la libertà, ma con la sicurezza: ognuno si sentirebbe al sicuro nella propria versione futura degli eventi.

A tutte queste domande sul nostro rapporto con l'ipervita, potremmo aggiungere considerazioni sulla natura della macchina: capirà il mondo che ricrea sintatticamente? Questo prototipo di identità, potrebbe essere considerata una coscienza? Riuscirà ad evolversi come facciamo noi umani? Dal momento che stanno prendendo solo decisioni finanziarie, mediche o legali in questo momento, sarai addestrato a prendere decisioni etiche? E se non sei qualificato per nessuno dei precedenti, come può il mio toi futuro di una macchina?

Ingrid Guardiola è professoressa all'Università di Girona, saggista, produttrice audiovisiva e ricercatrice culturale. Questo articolo è stato pubblicato nell'Annuario Internazionale CIDOB. Leggi l'articolo qui.

Go up