Un'analisi sui principi di design per la futura collaborazione uomo-macchina
AI, oh my!
March 18, 2024
5 Min Lettura
La ricerca tecnologica corre ad un ritmo senza precedenti e alcuni esempi di Intelligenza Generale Artificiale (AGI) saranno presto elementi di routine.
Non sappiamo quando e in quale forma tale svolta impatterà su di noi, ma è fondamentale farsi trovare preparati e delineare i principi su cui vogliamo costruire il nostro futuro.
Per molti di noi, la reazione iniziale all'IA è spesso di paura e scetticismo.
Ricordo ancora quando proposi ai miei colleghi l'uso di Rytr, un precursore di ChatGPT, e la loro risposta istintiva fu "Stai cercando di sostituirci tutti?".
Man mano che i bot entreranno a far parte della nostra vita saranno varie le sfide ad emergere: come possiamo promuovere la fiducia tra esseri umani e macchine? Come possiamo progettare robot in grado di adattarsi alle necessità umane? Come possiamo evitare di concentrarci sulle loro funzionalità, piuttosto che su come percepiamo le macchine e su come ci faranno sentire?
Fortunatamente, la ricerca sull'Interazione Uomo-Robot (HRI) e i contributi degli esperti di etica tecnologica sostengono questo approccio.
Approfondiamo i loro risultati, in modo da provare a sviluppare dei capisaldi per la costruzione dei nostri colleghi high-tech.
Nel 2007 i ricercatori del Georgia Tech pubblicarono il paper "My Roomba is Rambo".
Si tratta di un’analisi del rapporto che le persone sviluppano con i loro aspirapolvere autonomi e, sorprendentemente, fornisce profonde illuminazioni sulla capacità umana di creare legami con i robot.
Le persone sembrano avere la tendenza ad antropomorfizzare le loro macchine, chiamandole con soprannomi e trattandole addirittura come membri della famiglia.
Non è raro che si riordini casa in anticipo per facilitare il lavoro del robot e che vengano rivolte espressioni di affetto come se fosse un animale domestico.
Le ragioni di questi comportamenti risiedono nell'intimità del rapporto instaurato con un dispositivo che non è solo visibilmente presente, ma è anche attivamente coinvolto nella nostra vita quotidiana.
La capacità di questi robot di navigare nei nostri spazi e di operare con un certo grado di autonomia conferisce loro una sensazione di volontà e personalità proprie.
Ovviamente abbiamo anche una chiara comprensione dei limiti dei Roomba, una macchina di cui possiamo comprendere e monitorare le azioni.
Seguendo questa logica, una soluzione di design innovativa per i pulitori ha previsto l'introduzione di app per controllarli a distanza, per poter verificare la loro attività e in quali aree stiano pulendo.
In sostegno ci arrivano anche gli studi condotti nel 2018 dall'allora ricercatrice del MIT Joy Buolamwini (la cui storia è diventata anche un documentario di Netflix intitolato "Coded Bias").
Notò dei problemi con alcuni software di riconoscimento facciale (in particolare di IBM e Microsoft), che avevano difficoltà a riconoscere i volti delle persone nere, in particolare delle donne nere.
E come mai secondo lei? Il tutto causa di un problema rilevato nel dataset utilizzato per addestrare la macchina e nel fatto che il team di sviluppo, composto in genere da ingegneri maschi bianchi della Silicon Valley, non sia riuscito a cogliere la presenza di tale pregiudizio.
Il suo lavoro ha avuto un forte impatto sul mondo dell'etica tecnologica e della regolamentazione dell'IA, tanto che è stata chiamata a lanciare l'allarme di fronte al Congresso degli Stati Uniti e l'Unione Europea ha recentemente vietato l'uso di questa tecnologia tra le sue nazioni.
La sua ricerca ci lascia due ulteriori tasselli per capire come convincere gli esseri umani a fidarsi delle macchine.
In primo luogo, sottolinea la necessità di avere diversi background culturali e lavorativi all’interno dei team di sviluppo durante tutto il processo di design dell’AI.
Insegnanti, psicologi, economisti e molti altri professionisti sono importanti tanto quanto gli ingegneri.
La seconda aggiunta riguarda l'ennesima conferma di quanto sia cruciale per l'essere umano capire le intenzioni della macchina e non lasciare che tutto faccia parte di una black-box, in cui si possono vedere i risultati finali, ma non si capisce il processo che c'è dietro.
Le macchine avranno la capacità di sostituirci; non è una questione di "se", ma di "quando".
Questo non significa che le creature meccatroniche e super-intelligenti verranno lanciate sul mercato: la società non si considera sufficientemente pronta (tecnologicamente "matura") ad una sostituzione completa e probabilmente non lo sarà mai.
Per questo motivo un elemento chiave sarà l'implementazione di soluzioni per migliorare le capacità umane attraverso team di collaborazione uomo-robot.
Uno studio condiviso tra Paesi Bassi e Stati Uniti espone il concetto di Longitudinal Trust, ovvero il rapporto che si va a costruire nel tempo all'interno di un team.
Secondo i ricercatori, è fondamentale raggiungere un punto di Equità Relazionale, in cui l'uomo non sia portato al disuso della macchina, per mancanza di fiducia, ma nemmeno all’eccessiva dipendenza.
La fiducia verso l’IA, come quella tra gli esseri umani, è vista come un rapporto dinamico che necessita di aggiustamenti e di apprendimento reciproco.
È un concetto che si focalizza su come le buone esperienze passate possano influenzare positivamente la nostra riserva di buona volontà per convincerci a lavorare in sinergia con il robot.
Ciò si ottiene fornendo spiegazioni e giustificazioni per le azioni o i fallimenti della macchina, nonché per la sua capacità di adattarsi al feedback umano.
I nostri progetti dovrebbero essere mirati a una strategia per migliorare le prestazioni in un team in cui la macchina deve integrarsi senza attriti nel flusso di lavoro.
Durante la pianificazione di un prodotto, la nostra priorità non dovrebbe la realizzazione della più efficiente macchina possibile, di cui però non comprendiamo le attitudini e le decisioni.
In un mondo technology-driven, siamo portati a pensare che più la tecnologia sia performante, più i consumatori saranno portati ad utilizzarla.
La realtà è che le esigenze umane sono diverse dalla semplice ottimizzazione.
Un obiettivo per il prossimo futuro sarà quello di trovare il modo di creare legami emotivi, generare relazioni di fiducia e dare all'umanità un motivo per scegliere una macchina piuttosto che un'altra (o scegliere di non usarle affatto).
In sintesi, la tecnologia non deve essere fine a se stessa.
Sarà fondamentale realizzare macchine che si comportino in modo intuitivo, che ci permettano di creare relazioni durature, in collaborazione e non in subordinazione, in cui entrambi gli attori siano disposti a migliorare in base al feedback che ricevono.
Un design collaborativo per le intelligenze artificiali non equivale a una limitazione delle capacità di questa tecnologia.
Al contrario, il "nuovo senso" che ci deve guidare è quello di dare loro la possibilità di arricchire e migliorare l'esistenza umana.
Le macchine non saranno qui per sostituire le nostre vite, ma per estendere il valore della vita umana.