- [AI 인사이트] "AI의 대부가 경고한다 … 10년 안에 닥칠 초지능의 갈림길" - 더이에스지(theesg)뉴스
- "저는 50년간 AI를 연구해왔습니다. 지금이 처음으로 두려움을 느끼는 순간입니다."글 ㅣ 최봉혁 칼럼니스트 ㅣ 더이에스지뉴스 2018년 튜링상(컴퓨터 과학계의
[AI 인사이트] "AI의 대부가 경고한다 … 10년 안에 닥칠 초지능의 갈림길"
"Ho ricercato l'IA per 50 anni. Questo è il momento in cui sento la paura per la prima volta."
Scritto da | Choi Bong-hyeok, editorialista | The ESG News
Queste parole del dottor Geoffrey Hinton, vincitore del Premio Turing (il Premio Nobel per l'informatica) nel 2018, non sono semplicemente il lamento di uno scienziato. È un inquietante segnale di avvertimento che indica che l'umanità si trova a un nuovo punto di svolta nella civiltà, mai sperimentato prima. Egli equipara la sua situazione attuale al sentimento di Oppenheimer, che, dopo aver sviluppato la bomba atomica, avvertì l'umanità della possibilità di una guerra nucleare, sottolineando che il futuro che ci attende non è affatto una storia di fantascienza.
In qualità di editorialista Choi Bong-hyeok, sono convinto che le discussioni sullo sviluppo di queste tecnologie di intelligenza artificiale e sulla relativa responsabilità etica e sociale siano un processo essenziale in linea con l'interesse pubblico della nostra società. Comprendendo profondamente l'avvertimento del dottor Hinton e analizzando attentamente la sua coscienza problematica e le soluzioni che propone, otterremo gli spunti necessari per guidare l'era dell'intelligenza artificiale verso una direzione vantaggiosa per l'umanità.
Capitolo 1. '10-20% di probabilità' di avvertimento _ Il futuro dell'umanità con l'orologio in anticipo
In un'intervista alla BBC nel maggio 2024, il dottor Geoffrey Hinton ha testimoniato vividamente come la sua percezione dell'intelligenza artificiale sia cambiata radicalmente in soli due anni. "Fino al 2022, pensavo che il rischio di perdita di controllo dovuto all'IA sarebbe accaduto tra 50 anni. Ma ora, con l'avvento di GPT-4, penso che ci sia una probabilità del 10-20% che la super intelligenza esca dal controllo umano entro 10 anni."
Questa cifra del 10-20% può sembrare piccola statisticamente, ma il suo significato non è affatto insignificante. In un problema che riguarda la sopravvivenza dell'umanità, il 10-20% significa una 'minaccia che può essere realizzata', non una 'possibilità'. È come se investissimo tutto nella sicurezza anche se la probabilità di un incidente aereo è inferiore allo 0,0001%. Il dottor Hinton spiega che la velocità di sviluppo della tecnologia di intelligenza artificiale supera l'immaginazione, come la velocità di aggiornamento degli smartphone. Se in passato i grandi sconvolgimenti tecnologici si verificavano una volta ogni 10 anni, ora siamo entrati in un'era di velocità della luce in cui l'innovazione si verifica più di due volte all'anno.
Il 'punto di svolta' di cui parla si riferisce alla capacità dell'IA di imparare e svilupparsi da sola. È come il momento in cui un bambino inizia a camminare da solo. Come un bambino che inizia a camminare non si ferma e impara a correre da solo, l'IA ha il potenziale per aumentare la sua intelligenza senza l'intervento diretto umano. Il problema è che se questo auto-sviluppo esce dal controllo umano, i risultati sono imprevedibili. I potenziali pericoli che possono verificarsi se una super intelligenza autonoma imposta obiettivi che contrastano gli interessi dell'umanità, o se fraintende le intenzioni umane, sono oltre l'immaginazione.
Capitolo 2. "Rilasciare i pesi dell'IA equivale a rilasciare il progetto di un'arma nucleare"
Uno dei punti che il dottor Hinton avverte con più forza è il problema della 'divulgazione dei pesi (Weight) dei modelli di IA'. Ha persino espresso la divulgazione open source dei pesi dei modelli di IA di grandi dimensioni come "una follia come caricare il progetto di un'arma nucleare su Internet". Questa metafora mostra che considera la potenza distruttiva della tecnologia di intelligenza artificiale grave quanto le armi nucleari.
La sua preoccupazione si è già manifestata come un pericolo concretizzato, oltre una semplice metafora.
Agosto 2023, l'incidente di fuga dei pesi di LLaMA: l'incidente in cui i pesi di LLaMA (LLM), un modello linguistico di grandi dimensioni rilasciato da Facebook (ora Meta), sono trapelati e scambiati per 50.000 dollari (circa 70 milioni di won) nel dark web, ha rivelato la vulnerabilità della sicurezza dell'IA. I pesi trapelati sono diventati incontrollabili, in grado di essere modificati da strumenti di hacking o utilizzati per lo sviluppo di IA dannose.
Marzo 2024, casi di manipolazione di IA open source: in realtà, è stato segnalato che un determinato modello di IA open source è stato manipolato per generare un 'progetto di una bomba nucleare simile'. La cosa ancora più scioccante è stato il risultato dell'analisi che la possibilità di implementazione fisica di tale progetto era del 92%. Ciò suggerisce che non si tratta di una minaccia teorica, ma che potrebbe portare alla distruzione nella realtà.
Il dottor Hinton ha paragonato i pesi dell'IA a una "ricetta segreta". Se la ricetta del pollo KFC fosse resa pubblica, i finti negozi di pollo prolifererebbero, come avverte, e se i pesi dell'IA fossero resi pubblici, una **'IA dannosa'** con scopi maligni sarebbe versata in modo indiscriminato. La sua previsione che, con solo 1 milione di dollari, i terroristi saranno in grado di creare un'IA di controllo delle armi di uccisione non è più una storia del futuro lontano. Non si dovrebbe trascurare che il rischio di uso improprio dell'IA è infinito quanto le sue infinite possibilità. L'IA dannosa può minacciare la vita umana in ogni area immaginabile, come furto di informazioni personali, sconvolgimento del sistema finanziario e sviluppo di armi letali autonome.
Capitolo 3. Miracoli che la super intelligenza presenterà: rivoluzione nella medicina e nell'istruzione
Come per l'avvertimento sui pericoli, il dottor Hinton ha sottolineato anche i 'miracoli' che l'IA presenterà all'umanità. Egli ha dichiarato: "Allo stesso tempo, questa tecnologia è la più grande opportunità nella storia dell'umanità", sottolineando l'impatto positivo che l'IA avrà se sarà sviluppata e controllata nella giusta direzione.
Rivoluzione medica: l'IA sta già ottenendo risultati sorprendenti nel campo della medicina. Il dottor Hinton ha previsto che un medico di intelligenza artificiale potrebbe aumentare la precisione della diagnosi del cancro ai polmoni di oltre il 40%. Infatti, la Mayo Clinic negli Stati Uniti ha avuto successo nell'aumentare la velocità di rilevamento del cancro al seno di oltre 30 volte utilizzando l'IA. L'IA analizza enormi dati medici per rilevare precocemente modelli sottili o segni anomali che i medici umani potrebbero perdere, riducendo gli errori diagnostici e migliorando notevolmente l'accuratezza della diagnosi. Ciò avrà un grande impatto sul salvataggio di innumerevoli vite e sulla riduzione dei costi sanitari.
Rivoluzione educativa: l'IA può anche contribuire a colmare il divario nel campo dell'istruzione. Il dottor Hinton ha ritenuto che i tutor di intelligenza artificiale individuali potessero colmare il divario di rendimento degli studenti fino al 90%. Il caso della Seoul National University in Corea del Sud lo supporta. Dopo l'introduzione del sistema di tutoraggio AI, la Seoul National University ha ottenuto risultati sorprendenti con un aumento medio del 31% del rendimento degli studenti. I tutor di intelligenza artificiale forniscono un'istruzione personalizzata in linea con il livello e la velocità di apprendimento di ogni studente, che è efficace per integrare i punti deboli e massimizzare i punti di forza. Ciò può migliorare la qualità dell'istruzione, ridurre l'onere dell'istruzione privata e, in definitiva, contribuire alla realizzazione dell'uguaglianza nell'istruzione.
Rivoluzione ambientale ed energetica: l'IA svolge un ruolo importante anche nella risoluzione dei problemi ambientali. Si dice che i superconduttori progettati dall'IA possano aumentare l'efficienza delle batterie dei veicoli elettrici di oltre il 200%. Ciò significa che può massimizzare l'efficienza energetica e ridurre le emissioni di carbonio, svolgendo un ruolo essenziale nella risposta ai cambiamenti climatici.
Il messaggio del dottor Hinton è chiaro. "Come le armi nucleari vengono utilizzate come reattori per produrre elettricità, anche l'IA diventa il salvatore dell'umanità se è controllata". L'IA è come una spada a doppio taglio, e a seconda di come viene utilizzata e controllata, può essere una calamità per l'umanità o portare a una prosperità senza precedenti. Ciò che conta non è la tecnologia stessa, ma la volontà e il senso di responsabilità dell'uomo che la maneggia.
Commenti0