Per guidare un'auto o un missile militare ci potremo mai fidare di un algoritmo? Agi.it - 19/10/2018 22:02:11 - backup esx host , r undelete v2.0 , pc fault finding , sql server host name , fixing trojan virus

Per guidare un'auto o un missile militare ci potremo mai fidare di un algoritmo?

Il successo degli ultimi anni relativo ad algoritmi dedicati al Machine Learning ha avviato un processo deduttivo alquanto originale che guida la nostra mente ad una serie di passi spontanei finalizzati a credere che l'intelligenza artificiale (AI) possa realmente, con il passare degli anni, sostituire quella umana. Ma non è proprio cosi. Sono gli stessi studiosi del settore a porsi domande sull'AI avviando un nuovo strumento e realizzando un nuovo strumento chiamato: Explainable Artificial Intelligence (XAI). Leggi anche: Un nuovo appello per dire no alle macchine killer L' XAI è un progetto DARPA (consultabile a questo indirizzo) avente come obiettivo quello di comprendere come il "sistema" (AI) abbia raggiunto una decisione. Ogni algoritmo decisionale sia esso artificiale che umano porta in dote una marginalità di errore, tale errore è assai differente tra una decisione umana ed una artificiale. Infatti un errore decisionale umano è difficilmente correggibile da una "mente" artificiale, contrariamente un errore artificiale è più semplice da correggere da una mente umana. Da questa evidenza nasce la necessita di comprendere come la "macchina" (intesa come algoritmo di intelligenza artificiale) abbia preso la sua decisione.  Un problema anche militare Se l'uomo riesce a comprendere come il sistema automatico ha deciso una soluzione piuttosto che un altra, in caso di errore può correggerlo oppure, ancora meglio, può insegnare alla macchina a non compiere più "quell'errore" decisionale. Stiamo spostando ...

Leggi l'articolo Completo su Agi.it

Leggi l'articolo Completo su Agi.it

Aticoli Correlati