• Abbonati
Hi tech

Intelligenza Artificiale: le macchine hanno coscienza?

Le dichiarazioni rilasciate poche settimane fa dall’ingegnere di Google, secondo cui uno dei BOT della stessa Google si è dimostrato “senziente”, capace cioè di produrre idee senza bisogno di supporto umano, hanno causato confusione e opinioni contrastanti all’interno del settore tech

Le dichiarazioni rilasciate poche settimane fa dall’ingegnere di Google, secondo cui uno dei BOT della stessa Google si è dimostrato “senziente”, capace cioè di produrre idee senza bisogno di supporto umano, hanno causato confusione e opinioni contrastanti all’interno del settore tech.

Parole che hanno diviso l’opinione pubblica e gli esperti in due fazioni nettamente contrapposte: da un lato i sostenitori della visione di Blake Lemoine e dall’altro coloro che invece ritengono quelle dello studioso parole prive di fondamenta poiché ritengono impossibile l’autonomia delle macchine.

In uno scenario di contrasto, diventa sostanzialmente impossibile riuscire a capire chi ha ragione e chi torto, in virtù anche del fatto che latitano le prove scientifiche che possano confermare totalmente una delle due posizioni. Un tema ricorrente come dimostra Isaac Asimov che nel 1950 scrisse “Io Robot”, un racconto avveniristico che anticipava i giorni nostri.

L’intelligenza artificiale ha superato gli esseri umani? La discussione è accesa, abbiamo consultato alcuni esperti, incontrati in occasione di un evento importante, dedicato alla ricerca proprio nel campo dell’intelligenza artificiale.

All’Italia il LOOP Q Prize Award

Considerazioni di rilievo sull’autonomia e l’intelligenza delle macchine sono quelle emerse durante il LOOP Q Prize Award, evento che premia i migliori giovani studiosi nel campo dell’intelligenza artificiale.  La selezione è avvenuta con un contest che ha coinvolto le principali università d’Europa e alcuni prestigiosi atenei africani. A vincere la “competizione” è stato Diego Biagini, studente dell’università di Bologna, grazie al suo lavoro sul machine Learning. Oltre alla gara, durante l’evento hanno presenziato diversi esperti con interventi interessanti, che potrebbero aiutare le persone ad avere una visione più chiara della materia.

Il primo ad intervenire è stato Patrick Ehlen, Chief AI Advisor di Loop AI Group e Vice Presidente AI di Uniphore, ovvero, per chi non se ne intende, uno dei massimi esponenti in materia di AI.

Il quesito principale attorno a cui ruotava l’intera discussione era uno solo: “siamo arrivati al momento in cui l’intelligenza artificiale può essere considerata senziente? Patrick Ehlen ha cercato di riflettere sul tema ribaltando la questione. Le sue parole possono infatti essere riassunte in questo modo: la domanda da porsi non è tanto se l’intelligenza artificiale sia già autonoma dagli esseri umani, ma piuttosto se si possa in modo sicuro e certo escludere che lo sia.

Un ragionamento che nasce dalle possibilità di errore di fronte a cui gli scienziati possono trovarsi quando lavorano all’analisi di un determinato fenomeno: il primo errore consiste nel considerare reale un fenomeno che in realtà non esiste, il secondo invece è l’esatto opposto, ovvero il non vedere qualcosa che in realtà è già reale. Nell’eterna discussione che coinvolge la possibilità che l’intelligenza artificiale diventi autonoma rispetto all’uomo ci troviamo proprio davanti ad una situazione di questo tipo.

Per cercare di spiegare la sua visione, Patrick ha portato l’esempio di un uomo che durante la notte si trova nel mezzo della giungla e nel buio scruta due elementi luccicanti che potrebbero essere, o semplicemente il riflesso del chiaro di luna, oppure gli occhi di una feroce tigre in cerca di cibo. A questo punto l’uomo potrebbe interpretare ciò che vede come un possibile pericolo e dunque allontanarsi, oppure, ignorando la minaccia, avvicinarsi e proseguire nel suo cammino. In entrambe le situazioni esiste il rischio di aver agito in modo sbagliato.

Da qui deriva l’idea dello studioso, secondo cui l’approccio migliore da adottare è quello che prevede tre fasi di azione: porsi il problema, valutare il pericolo e studiare le possibili soluzioni, per mantenere il controllo della situazione.

La “singularity” tecnologica

Parlare di Intelligenza Artificiale senziente significa parlare del tema della “Singularity”, ovvero della capacità delle macchine di operare in maniera totalmente autonoma senza necessariamente sottostare ai comandi dell’uomo.

In merito a questo tema, durante il Loop Q Prize Award è intervenuto anche Davide Casaleggio, CEO di Casaleggio Associati, grande esperto di AI.

Secondo il professionista, la cosiddetta “Computer Singularity” è già presente e operante in alcuni settori come ad esempio nel momento in cui ci si affida al navigatore, senza “discutere” la sua scelta, per ottenere il percorso più rapido, oppure quando si compete a scacchi contro un computer, dove l’intelligenza artificiale è in grado di vincere praticamente sempre contro l’uomo.

La migliore soluzione

I trascorsi portano a pensare che la soluzione migliore è quella in cui le due forme di ragionamento cooperano per il bene comune. Il problema sta nel fatto che ad oggi non sono ancora presenti strumenti capaci di capire quando i computer supereranno le capacità umane e quindi la gestione dell’argomento è ancora un grande rebus da risolvere. Il vero tema da affrontare, però, non è se l’intelligenza artificiale abbia o meno superato l’uomo, ma come mantenere una collaborazione intensa e positiva per gli esseri umani, tra le due forme di pensiero, quando questo capiterà.

Il dubbio che nasce è se saremo in grado di farlo senza porre barriere ideologiche: probabilmente conosciamo già la risposta, speriamo che la realtà prenda strade diverse.

Iscriviti al nostro canale Whatsapp e rimani aggiornato.
Vuoi leggere BergamoNews senza pubblicità?   Abbonati!
commenta

NEWSLETTER

Notizie e approfondimenti quotidiani sulla tua città.

ISCRIVITI