Imparare a evitare di non creare una Intelligenza Artificiale

La costruzione di una intelligenza artificiale è una delle cose più delicate che qualcuno abbia mai tentato di realizzare. Ci sono forti elementi di prova forniti sulla natura durevole del problema nonostante i tentativi di risolverlo da parte di molte persone intelligenti. In confronto, mandare un uomo sulla luna è stato un problema tecnico relativamente semplice con poca confusione circa la natura della soluzione.

La costruzione di una AI è quasi sicuramente un problema di software in quanto il limite esterno per la quantità di computazione nel cervello umano è solo 10^17  operazioni / secondo (10^11 neuroni con 10^4 collegamenti operativi a 10^2 Hz) che è all’interno del campo dei sistemi noti.

Le persone tendono a mitizzare la complessità delle cose sconosciute, quindi la potenza (quantità) “reale” di calcolo necessaria per una intelligenza artificiale (che simula la scala umana) è probabilmente molto meno, forse anche alla portata di una scheda grafica GPU dotata di 10^13 flop.

Poiché la costruzione di un AI è un problema di software, il problema è la complessità in un senso molto più forte per la maggior parte dei problemi. L’approccio efficace per affrontare la complessità è usare la modularità. Ma quale modularità? Esiste già una distesa di proposte di tipi di modularità spesso incompatibili e, ovviamente, incomplete. Quando si tenta di scomporre (il progetto) in problemi più piccoli ci si confronta con la difficoltà di soluzione.

Per guidarci nel ragionamento, possiamo considerare che cosa funziona e cosa no. Questo è difficile, perché la definizione di intelligenza artificiale non è chiara ne univoca. Io definisco l’Intelligenza Artificiale in rapporto ai gradi di intelligenza nella mia mente, una I.A. di livello umano è quella che può eseguire la gamma di compiti propri di un essere umano. Questo include l’apprendimento di cose complesse (linguaggio, ragionamento, ecc …) a partire da quelle più elementari.

La definizione sembra naturale, ma non è facilmente testato attraverso il famoso test di Turing. Ad esempio, è possibile immaginare un sistema Cyc-backed superare il test di Turing. Questo vorrebbe dire avere una I.A. di livello umano? Direi ‘no’, perché confidare su una ontologia fatta dall’uomo indica una incapacità di scoprire e usare cose nuove in modo efficace. C’è una buona storia di fantascienza di scrivere qui, dove un sistema basato su Cyc prende il sopravvento la civiltà, ma poi cade a poco a poco a parte come nuovi concetti rilevanti semplicemente non può essere afferrato.

Invece di facsimili di I.A., approcci di apprendimento sembrano essere la chiave del successo. Se un sistema impara come passare il test di Turing da primitive di base, questo è, a mio parere, naturalmente molto più vicino ad una intelligenza artificiale di livello umano.

Abbiamo visto che progettare fac-simili di I.A. rispetto a modelli di apprendimento molte volte sembra inizialmente vincente, ma non sulla lunga distanza. Considerate attività come Condurre Giochi, Guidare, Guardare, Parlare, da un lato e le Chat-bot dall’altro. Ad oggi l’approccio fac-simile è stato travolto dal modello di apprendimento (machine learning) in contesti di sviluppo di capacità di Visione e di Conversazione mentre nell’ambito del partecipare a giochi, nella guida rispetto alle chat-bot la situazione è meno facilmente confrontabile.

Mi aspetto che l’approccio facsimile nello sviluppo dell’I.A. costituirà una delle maggiori fonti di energie sprecate e che continueranno a essere un problema, perché è naturalmente esposto a problemi: Perché non è sufficiente rendere il sistema programmato per fare quello che vuoi che faccia? Sviluppare un sistema che funziona imparando a fare cose sembra un percorso piuttosto indiretto e sicuramente richiede più tempo e richiede uno sforzo maggiore. La risposta, naturalmente, è che un sistema che apprende quello che potrebbe altrimenti essere progettato in partenza per fare, è in grado di imparare altre cose se necessario, il che rende un I.A. così fatta intrinsecamente più robusta.

Traduzione dell’Articolo di John Langford (l’originale in inglese lo trovate qui)

2 anni ago