Vitalik: Teme l'AGI e l'ASI, sostiene la costruzione di strumenti per migliorare l'intelligenza umana piuttosto che creare una vita super intelligente
Il 22 dicembre, in risposta agli sviluppi recenti dei prodotti legati all'AGI nel campo di OpenAI e dell'IA, il fondatore di Ethereum Vitalik Buterin ha pubblicato sulla piattaforma X dicendo: "La mia definizione di AGI (Intelligenza Artificiale Generale) è: l'AGI è un'intelligenza artificiale abbastanza potente che, se un giorno tutti gli esseri umani scomparissero improvvisamente e questa IA fosse caricata in un corpo robotico, sarebbe in grado di continuare la civiltà in modo indipendente.
Ovviamente, questa è una definizione molto difficile da misurare, ma penso che sia esattamente la differenza intuitiva fondamentale tra 'l'IA a cui siamo abituati' e 'l'AGI' nella mente di molte persone. Segna la transizione da uno strumento che si basa costantemente sull'input umano a una forma di vita autosufficiente. L'ASI (Intelligenza Artificiale Superiore) è un'altra questione completamente diversa - la mia definizione è quando gli esseri umani non aggiungono più valore alla produttività nel ciclo (proprio come nei giochi di scacchi dove abbiamo raggiunto questo punto solo nell'ultimo decennio.)
Sì, l'ASI mi spaventa - anche la mia definizione di AGI mi spaventa perché comporta evidenti rischi di perdita di controllo. Sostengo il concentrarsi sul nostro lavoro per costruire strumenti di miglioramento intelligente per gli esseri umani piuttosto che costruire forme di vita super-intelligenti."
Esclusione di responsabilità: il contenuto di questo articolo riflette esclusivamente l’opinione dell’autore e non rappresenta in alcun modo la piattaforma. Questo articolo non deve essere utilizzato come riferimento per prendere decisioni di investimento.