NEWS FDN (다큐)

[AI 인사이트] "AI의 대부가 경고한다 … 10년 안에 닥칠 초지능의 갈림길"

Création: 2025-07-23

Création: 2025-07-23 06:41

[AI 인사이트] "AI의 대부가 경고한다 … 10년 안에 닥칠 초지능의 갈림길"

[AI 인사이트] "AI의 대부가 경고한다 … 10년 안에 닥칠 초지능의 갈림길"


"J'ai fait des recherches sur l'IA pendant 50 ans. C'est la première fois que j'ai peur."

Écrit par | Choi Bong-hyeok, chroniqueur | The ESG News

Ces mots du Dr Geoffrey Hinton, lauréat du prix Turing (le prix Nobel des sciences informatiques) en 2018, ne sont pas de simples plaintes d'un scientifique. C'est un avertissement effrayant qui signale que l'humanité se trouve à un nouveau point de basculement de la civilisation, jamais connu auparavant. Il souligne que l'avenir qui nous attend n'est en aucun cas un récit de science-fiction, en assimilant son état actuel à celui d'Oppenheimer, qui a mis en garde l'humanité contre la possibilité d'une guerre nucléaire après le développement de la bombe atomique.

En tant que chroniqueur Choi Bong-hyeok, je suis convaincu que le débat sur les progrès de cette technologie d'IA et les responsabilités éthiques et sociales qui en découlent est un processus essentiel qui correspond à l'intérêt public de notre société. En comprenant profondément l'avertissement du Dr Hinton et en analysant attentivement ses problèmes et ses solutions, nous obtiendrons des informations qui nous permettront de conduire l'ère de l'IA à venir dans une direction bénéfique pour l'humanité.

Chapitre 1. '10 à 20 % de probabilité' d'avertissement_ L'avenir de l'humanité dont l'horloge a avancé

Dans une interview accordée à la BBC en mai 2024, le Dr Geoffrey Hinton a témoigné de la rapidité avec laquelle sa perception de l'IA avait changé en seulement deux ans. "Jusqu'en 2022, je pensais que le risque de perte de contrôle dû à l'IA était une question qui se poserait dans 50 ans. Mais maintenant que GPT-4 est apparu, je pense qu'il y a 10 à 20 % de chances qu'une super-intelligence sorte du contrôle humain dans les 10 prochaines années."

Bien que ce chiffre de 10 à 20 % puisse sembler faible statistiquement, sa signification n'est pas à prendre à la légère. Dans un problème où la survie de l'humanité est en jeu, 10 à 20 % signifient une 'menace qui peut être réalisée' plutôt qu'une 'possibilité'. C'est comme si nous investissions tout dans la sécurité même si la probabilité d'un accident d'avion est inférieure à 0,0001 %. Le Dr Hinton explique que le rythme de développement de la technologie de l'IA est au-delà de l'imagination, comme le rythme de mise à niveau des smartphones. Si les grands changements technologiques se produisaient autrefois tous les 10 ans, nous sommes maintenant entrés dans une ère de vitesse, avec plus de deux innovations par an.

Le 'point de basculement' dont il parle fait référence à la capacité de l'IA à apprendre et à évoluer par elle-même. C'est comme le moment où un bébé commence à faire ses premiers pas. Tout comme un bébé qui commence à marcher n'arrête pas et apprend à courir par lui-même, l'IA a le potentiel de développer son intelligence sans intervention humaine directe. Le problème, c'est que si ce développement personnel dépasse les limites du contrôle humain, les résultats sont imprévisibles. Les risques potentiels qui peuvent survenir si une IA super-intelligente et autonome fixe des objectifs qui entrent en conflit avec les intérêts humains, ou si elle mal interprète les intentions humaines, sont au-delà de l'imagination.

Chapitre 2. "La publication des pondérations de l'IA est comme la fuite des plans d'une arme nucléaire"

L'un des points que le Dr Hinton met le plus en garde est la question de la 'publication des pondérations des modèles d'IA'. Il a même qualifié la publication en open source des pondérations des grands modèles d'IA de "folie qui consiste à mettre les plans d'une arme nucléaire sur Internet". Cette analogie montre qu'il considère la puissance destructrice de la technologie de l'IA comme aussi grave que celle d'une arme nucléaire.

Ses inquiétudes sont déjà devenues un danger réel, au-delà d'une simple analogie.

Août 2023, l'incident de la fuite des pondérations LLaMA : la fuite des pondérations de LLaMA, le grand modèle linguistique (LLM) publié par Facebook (aujourd'hui Meta), et sa vente sur le dark web pour 50 000 dollars (environ 70 millions de wons) a clairement révélé la vulnérabilité de la sécurité de l'IA. Les pondérations divulguées sont devenues incontrôlables, susceptibles d'être transformées par des outils de piratage ou utilisées pour le développement d'une IA malveillante.

Mars 2024, exemples de manipulation d'IA open source : Des exemples de manipulation de modèles d'IA open source pour générer des "plans de bombes nucléaires similaires" ont été signalés. Ce qui est encore plus choquant, c'est l'analyse selon laquelle la mise en œuvre physique de ces plans avait une probabilité de 92 %. Cela signifie qu'il ne s'agit pas d'une menace théorique, mais qu'elle peut conduire à une véritable destruction dans la réalité.

Le Dr Hinton a comparé les pondérations de l'IA à une "recette secrète". Il met en garde : comme les faux restaurants de poulet afflueront si la recette du poulet KFC est rendue publique, une **'IA malveillante'** sortira sans discernement si les pondérations de l'IA sont rendues publiques. Sa prédiction selon laquelle l'ère où les terroristes pourraient créer une IA de contrôle d'armes meurtrières avec seulement 1 million de dollars n'est plus une histoire d'un avenir lointain. Il ne faut pas négliger que la dangerosité de l'utilisation abusive de l'IA est aussi infinie que ses possibilités infinies. Vol d'informations personnelles, perturbation des systèmes financiers, développement d'armes autonomes meurtrières, etc., l'IA malveillante peut menacer la vie humaine dans tous les domaines imaginables.

Chapitre 3. Le miracle présenté par la super-intelligence : révolution médicale et éducative

Autant qu'il a mis en garde contre les dangers, le Dr Hinton a également souligné le 'miracle' que l'IA apportera à l'humanité. Il a déclaré : "En même temps, cette technologie est la plus grande opportunité de l'histoire de l'humanité", soulignant l'impact positif que l'IA apportera si elle est développée et contrôlée dans la bonne direction.

Révolution médicale : L'IA a déjà obtenu des résultats étonnants dans le domaine médical. Le Dr Hinton a prédit qu'un médecin IA pourrait augmenter la précision du diagnostic du cancer du poumon de plus de 40 %. En fait, la Mayo Clinic aux États-Unis a réussi à augmenter la vitesse de détection du cancer du sein de plus de 30 fois grâce à l'IA. L'IA peut analyser de grandes quantités de données médicales et détecter à un stade précoce des schémas ou des anomalies qui pourraient échapper aux médecins humains, réduisant ainsi les erreurs de diagnostic et améliorant considérablement la précision des diagnostics. Cela aura un impact significatif sur la sauvegarde de nombreuses vies et sur la réduction des coûts des soins de santé.

Révolution éducative : L'IA peut également contribuer à réduire les disparités dans le domaine de l'éducation. Le Dr Hinton a estimé qu'un tuteur en IA en tête-à-tête pourrait combler jusqu'à 90 % des lacunes de réussite scolaire des élèves. L'exemple de l'Université nationale de Séoul, en Corée, le confirme. L'Université nationale de Séoul a obtenu des résultats étonnants, avec une augmentation moyenne de 31 % des notes des étudiants après l'introduction du système de tutorat de l'IA. Les tuteurs d'IA fournissent un enseignement personnalisé adapté au niveau et au rythme d'apprentissage de chaque élève, ce qui permet de combler les lacunes et de maximiser les points forts. Cela peut améliorer la qualité de l'éducation, réduire le fardeau de l'éducation privée et, en fin de compte, contribuer à l'égalité de l'éducation.

Révolution environnementale et énergétique : L'IA joue également un rôle important dans la résolution des problèmes environnementaux. Il a été dit que les supraconducteurs conçus par l'IA peuvent augmenter l'efficacité des batteries des véhicules électriques de plus de 200 %. Cela signifie qu'elle peut maximiser l'efficacité énergétique et réduire les émissions de carbone, jouant un rôle essentiel dans la lutte contre le changement climatique.

Le message du Dr Hinton est clair. "Comme les armes nucléaires sont utilisées comme réacteurs pour produire de l'électricité, l'IA, si elle est contrôlée, devient le sauveur de l'humanité." L'IA est une arme à double tranchant, et selon la façon dont elle est utilisée et contrôlée, elle peut être une catastrophe pour l'humanité ou apporter une prospérité sans précédent. L'important, ce n'est pas la technologie elle-même, mais la volonté et la responsabilité des humains qui la manipulent.



Commentaires0