NEWS FDN (다큐)

[Perspectivas de la IA] "El padrino de la IA advierte... El cruce de caminos de la superinteligencia que llegará en 10 años"

Creado: 2025-07-23

Creado: 2025-07-23 06:41

[Perspectivas de la IA] "El padrino de la IA advierte... El cruce de caminos de la superinteligencia que llegará en 10 años"

[Perspectivas de la IA] "El padrino de la IA advierte... El cruce de caminos de la superinteligencia que llegará en 10 años"


"He estado investigando la IA durante 50 años. Este es el primer momento en que siento miedo."

Escrito por ㅣ Columnista Choi Bong-hyeok ㅣ The ESG News

Esta frase del Dr. Geoffrey Hinton, ganador del Premio Turing (el Premio Nobel de la informática) en 2018, no es simplemente una queja de un científico. Es una escalofriante señal de advertencia que indica que la humanidad se encuentra en un nuevo punto de inflexión en la civilización, nunca antes experimentado. Es como si se identificara con la mentalidad de Oppenheimer, quien advirtió a la humanidad sobre la posibilidad de una guerra nuclear después del desarrollo de la bomba atómica, y enfatiza que el futuro que nos espera no es una historia de ciencia ficción.

Como columnista Choi Bong-hyeok, estoy convencido de que la discusión sobre el desarrollo de la tecnología de IA y las responsabilidades éticas y sociales que conlleva es un proceso esencial que se alinea con el interés público de nuestra sociedad. Al comprender profundamente la advertencia del Dr. Hinton y analizar a fondo la conciencia de los problemas y las soluciones que presenta, obtendremos información que nos permitirá liderar la próxima era de la IA en una dirección que beneficie a la humanidad.

Capítulo 1. Advertencia de '10~20% de probabilidad'_ El futuro de la humanidad con el reloj adelantado

En una entrevista con la BBC en mayo de 2024, el Dr. Geoffrey Hinton testificó vívidamente cuán rápidamente había cambiado su percepción de la IA en solo dos años. "Hasta 2022, pensé que el peligro de pérdida de control debido a la IA ocurriría dentro de 50 años. Pero ahora, con la aparición de GPT-4, creo que hay una probabilidad del 10 al 20% de que la superinteligencia se salga del control humano dentro de 10 años."

Esta cifra del 10 al 20% puede parecer pequeña estadísticamente, pero su significado no es en absoluto ligero. En un problema que involucra la existencia de la humanidad, del 10 al 20% significa una 'amenaza que puede materializarse', no una 'posibilidad'. Es como si invirtiéramos todo en seguridad, incluso si la probabilidad de un accidente aéreo es inferior al 0,0001%. El Dr. Hinton explica que el ritmo de desarrollo de la tecnología de IA es más allá de lo imaginable, como la velocidad de actualización de un teléfono inteligente. En el pasado, las grandes transformaciones tecnológicas ocurrían una vez cada 10 años, pero ahora hemos entrado en una era de velocidad de la luz en la que la innovación ocurre más de dos veces al año.

El 'punto de inflexión' que él menciona significa la capacidad de la IA para aprender y desarrollarse por sí misma. Es como el momento en que un bebé comienza a dar sus primeros pasos por sí solo. Como un bebé que una vez que empieza a caminar no se detiene y aprende a correr por sí solo, la IA tiene el potencial de sofisticar su inteligencia sin la intervención directa humana. El problema es que, si este autodesarrollo se sale del alcance del control humano, los resultados son impredecibles. Los riesgos potenciales que podrían surgir si la IA superinteligente con autonomía establece objetivos que se oponen a los intereses de la humanidad, o si malinterpreta las intenciones humanas, están más allá de la imaginación.

Capítulo 2. "La publicación de los pesos de la IA es como la fuga de los planos de armas nucleares"

Uno de los puntos que el Dr. Hinton advierte con mayor vehemencia es el problema de la 'publicación de los pesos (Weight) del modelo de IA'. Expresó que publicar los pesos de los modelos de IA a gran escala como código abierto era "una locura como subir los planos de armas nucleares a Internet". Esta analogía muestra que considera la destructividad de la tecnología de IA tan grave como la de las armas nucleares.

Su preocupación ya se ha manifestado como un peligro que ha llegado a ser real, más allá de una simple analogía.

Agosto de 2023, caso de fuga de pesos de LLaMA: El caso en el que los pesos de LLaMA, un modelo de lenguaje a gran escala (LLM) publicado por Facebook (ahora Meta), fueron filtrados y negociados en la dark web por 50.000 dólares (aproximadamente 70 millones de wones) reveló la vulnerabilidad de la seguridad de la IA. Los pesos filtrados se convirtieron en un estado incontrolable, que podrían ser manipulados por herramientas de hacking o utilizados para el desarrollo de IA maliciosa.

Marzo de 2024, caso de manipulación de IA de código abierto: De hecho, se informó de un caso en el que un modelo de IA de código abierto específico fue manipulado para generar 'planos similares a armas nucleares'. Lo que fue aún más impactante fue el resultado del análisis de que la posibilidad de implementación física de esos planos era del 92%. Esto sugiere que no es una amenaza teórica, sino que puede llevar a la destrucción real.

El Dr. Hinton comparó los pesos de la IA con una "receta secreta". Advierte que, como en el caso de la publicación de la receta del pollo KFC, saldrán a la luz, sin control, **'IA maliciosas'** con fines maliciosos si se publican los pesos de la IA. Su predicción de que llegará una época en la que con solo un millón de dólares, los terroristas podrán crear una IA que controle armas letales, ya no es una historia del futuro distante. No debemos pasar por alto que el peligro de su mal uso es tan infinito como el infinito potencial de la IA. La IA maliciosa puede amenazar la vida humana en todas las áreas imaginables, incluyendo el robo de información personal, la interrupción de los sistemas financieros y el desarrollo de armas letales autónomas.

Capítulo 3. Milagros que presentará la superinteligencia: Revolución en la medicina y la educación

Tanto como las advertencias sobre los peligros, el Dr. Hinton también enfatizó los 'milagros' que la IA presentará a la humanidad. Afirmó que "al mismo tiempo, esta tecnología es la mayor oportunidad en la historia de la humanidad", y enfatiza la influencia positiva que traerá si la IA se desarrolla y controla en la dirección correcta.

Revolución médica: La IA ya está logrando resultados sorprendentes en el campo de la medicina. El Dr. Hinton predijo que la IA médica podría mejorar la precisión del diagnóstico del cáncer de pulmón en más del 40%. De hecho, la Clínica Mayo de Estados Unidos tuvo éxito en aumentar la velocidad de detección del cáncer de mama en más de 30 veces utilizando la IA. La IA puede analizar grandes cantidades de datos médicos para detectar patrones sutiles o signos anormales que los médicos humanos podrían pasar por alto en una etapa temprana, reduciendo las tasas de error de diagnóstico y mejorando drásticamente la precisión de los diagnósticos. Esto tendrá una gran influencia en salvar innumerables vidas y reducir los costos médicos.

Revolución educativa: La IA también puede contribuir a reducir la brecha en el campo de la educación. El Dr. Hinton vio que los tutores de IA individuales podrían reducir la brecha de rendimiento de los estudiantes hasta en un 90%. El caso de la Universidad Nacional de Seúl en Corea del Sur lo respalda. La Universidad Nacional de Seúl obtuvo resultados sorprendentes, con un aumento promedio del 31% en las calificaciones de los estudiantes después de la introducción del sistema de tutoría de IA. Los tutores de IA brindan educación personalizada que se adapta al nivel y ritmo de aprendizaje de cada estudiante, y son efectivos para complementar las debilidades y maximizar las fortalezas. Esto puede mejorar la calidad de la educación, reducir la carga de la educación privada y, en última instancia, contribuir a la igualdad en la educación.

Revolución ambiental y energética: La IA también juega un papel importante en la resolución de los problemas ambientales. Se dice que los superconductores diseñados por la IA pueden aumentar la eficiencia de las baterías de los vehículos eléctricos en más del 200%. Esto significa que puede maximizar la eficiencia energética y reducir las emisiones de carbono, jugando un papel esencial en la respuesta al cambio climático.

El mensaje del Dr. Hinton es claro. "Así como las armas nucleares se utilizan como reactores para generar electricidad, la IA también se convierte en el salvador de la humanidad si se controla". La IA es una espada de doble filo, y dependiendo de cómo se utilice y controle, puede convertirse en un desastre para la humanidad, o puede traer una prosperidad sin precedentes. Lo importante no es la tecnología en sí, sino la voluntad y la responsabilidad de los humanos que la manejan.



Comentarios0