venerdì 25 marzo 2016

Appunti a proposito delle responsabilità dei computer scientist


Che problema c’è? Mi chiede un professore di informatica nella discussione che segue a una presentazione del mio libro Macchine per pensare. E sottintende: il problema non esiste.
Il tema dell’argomentare è presto detto: un tempo forse era sensata la critica a una Intelligenza Artificiale Forte. E in anni successivi, forse, era motivata anche una critica all’Intelligenza Artificiale Debole. A entrambe queste concezione dell’Intelligenza Artificiale s’attaglia infatti la critica: si vuol sostituire la macchina all’uomo. Si vuol sostituire all’intelligenza umana, accettata così com’è, un’intelligenza progettata secondo il modello di un’intelligenza ben fatta, depurata dagli umani limiti e difetti.
Il computer scientist, così, pretende quindi di sapere, a priori, quali sono i limiti e difetti dell’intelligenza umana, ponendosi al sopra del suo stesso essere uomo, ponendosi nel ruolo del demiurgo -’artefice’, ‘ordinatore’- pretendendo di sapere meglio degli altri uomini cosa è giusto per gli uomini.
Mi si dice: forse questa era una pretesa eccessiva. Ma che problema c’è? Non c’è problema, perché oggi l’Intelligenza che noi computer scientist, l’Intelligenza che perseguiamo e sviluppiamo non può più nemmeno essere definita, a rigore, ‘artificiale’. Perché è la stessa intelligenza umana. Potrebbe semmai essere definita Intelligenza Sociale. Lavoriamo infatti sui frutti dell’umano pensare, frutti collazionati in rete, rese accessibili da quella Rete di Reti che è il Web.
Studiamo sintassi e semantica non a partire da grammatiche intese come sistemi di regole. Osserviamo invece l’emergere di regole da corpora che raccolgono l’umano libero modo di esprimersi. Cerchiamo traduzioni da lingua a lingua via via migliori attraverso l’accumulazione, la sovrapposizioni di traduzioni diverse degli stessi testi canonici, e attraverso le correzioni alle stesse traduzioni di umani disposti a collaborare. Ricostruiamo i comportamenti degli uomini a partire dalle loro stesse tracce: le tracce lasciate, passando da cella in cella, dal telefono cellulare che ormai accompagna ogni essere umano; le tracce lasciate dalla scatola nera posta dalle Compagnie di Assicurazioni sulle automobili; le tracce lasciate dalla battuta di cassa, rilevate nel momento in cui l’essere umano compra qualcosa in un negozio.
I Big Data, che non sono altro che il frutto dell’intelligenza umana, costituiscono insomma la materia sulla quale noi lavoriamo. Non veniteci quindi a dire -ecco il succo dell’argomentazione che mi viene proposta-, non veniteci a dire che pretendiamo di imporre all’uomo un’intelligenza diversa dalla sua. Veniteci semmai, invece, a ringraziare, per come diffondiamo e redistribuiamo ad ogni uomo i frutti della sua stessa intelligenza. Permettendo ad ogni uomo di godere dei frutti dell’intelligenza che non sa di avere.
E allora, che problema c’è? Tralascio di qui di toccare il tema della privatezza (detto tra parentesi, non vedo la necessità di usare il termine inglese privacy), della riservatezza, di come in molti casi siano raccolti i dati sui comportamenti degli esseri umani. I dati sul personale uso, da parte di ognuno, della propria personale intelligenza. Perché spesso, si sa, i dati sono raccolti nostro malgrado, senza che noi esseri umani ne siamo adeguatamente portati a conoscenza. E senza che ci venga garantito un adeguato compenso per questo uso (o abuso) della nostra intelligenza.
Tralascio qui questo tema -del quale del resto parlo in Macchine per pensare, e che comunque tratterò in un altro articolo, qui su Dieci chili di perle. Tralascio qui il tema, pur considerandolo importante, perché cerco di evitare una trappola in cui vedo finire spesso riflessioni simili a quella che propongo in questo articolo. Scivolando a parlare del furto dell’umana intelligenza, si finisce per distogliere l’attenzione dalla riflessione sul ruolo del computer scientist, alle prese con l’intelligenza più o meno umana. Si cerca lontano da noi il colpevole dell’ingiustizia, allontanandoci abbastanza comodamente dal riflettere attorno a ciò che stiamo facendo.
Torniamo quindi alla domanda iniziale: che problema c’è? Torniamoci accettando anche di chiamare ora il computer scientist ‘social data scientist’.
Il problema che c’è, e che tocca il social data scientist così come il computer scientist, può essere formulato sotto forma di nuova domanda. Se tu avessi lavorato negli ultimi Anni Cinquanta o negli Anni Sessanta, al tempi in cui dominava in canone dell’Intelligenza Artificiale Forte, come ti saresti comportato? Ti saresti mosso nei confini del canone, o avresti forse -in virtù della libera scelta riconosciuta al ricercatore universitario- indirizzato la tua ricerca in altre direzioni? Ti saresti posto domande etiche a proposito del tuo arrogarti il ruolo di demiurgo? E analogamente: se tu ti trovassi nell’epoca in cui domina il canone dell’Intelligenza Artificiale Debole, come ti comporteresti? E dunque: è sufficiente, oggi, tranquillizzarsi dicendo che non sono più attuali i dubbi etici che erano attuali sessanta o trenta anni fa?
Sono propenso a sostenere che il lavoro del ricercatore, e del progettista di macchine che tendono a sostituire l’uomo, comporta di per sé dubbi etici e interrogativi relativi alla personale responsabilità. Semplicemente: ciò che fa la differenza tra ricercatore e ricercatore, è la personale disponibilità -quale che sia il canone vigente- a non rifiutare i dubbi etici e ad assumersi personali responsabilità. Non serve nemmeno lavarsi la coscienza firmando appelli, per esempio per moratorie delle ricerche relative a robot-soldato. La domanda è esistenziale, rivolta alla persona: cosa faccio io personalmente, al di là del firmare un appello, nel mio quotidiano lavoro di ricerca e di sviluppo? So bene che l’assumere questo atteggiamento non è facile.
Una prima, non irrilevante conseguenza, è che legare le ricerche al proprio personale punto di vista significa spesso uscire dal canone; e l’uscire dal canone comporta spesso, di fatto, una penalizzazione della stessa carriera del ricercatore.
Una seconda, più ampia conseguenza è che si tratta di imparare a muoversi su un campo nuovo, il campo filosofico. Non solo allargando lo sguardo sul terreno già noto e battuto: pur restando sul terreno indicato da Turing -il ‘pensiero calcolante’- tornare a guardare alla matematica assiomatica di Hilbert, alla logica di Frege, ritornare magari a Leibniz. Ma accettando anche di muoversi in territori estranei al canone informatico: Freud, Wittgenstein, Heidegger. O altri ancora. Wittgenstein ci ricorda che, di fronte ad ogni macchina, e ad ogni funzionamento della macchina, è possibile contemplare un’altra macchina, ed un altro funzionamento. Heidegger ci fornisce precisi indirizzi a proposito di come concepire una macchina a misura d’uomo. Non sono forse queste fonti importanti per chi lavora a studiare i modi per gestire, tramite computer, l’intelligenza umana?
Di questo cerco di parlare in Macchine per pensare. Credo non sia difficile muoversi sul terreno della filosofia. Ma anche se lo fosse? Dobbiamo forse rinunciare a cose interessanti solo perché ci appaiono, di primo acchito, difficili?
Lascio rispondere alla domanda il mio amato poeta cubano José Lezama Lima: “sólo lo difícil es estimulante”. Solo ciò che è difficile è stimolante. Perché, sostiene Lezama, solo ciò che è difficile ci stimola ad andare oltre le nostre resistenze, e le resistenze dei materiali con i quali lavoriamo. Masse di dati destrutturati appaiono sorde. Sembrano non dire nulla. Ci sfidano, chiedendoci di provare a coglierne in senso.

Nessun commento:

Posta un commento