- [AI 인사이트] "AI의 대부가 경고한다 … 10년 안에 닥칠 초지능의 갈림길" - 더이에스지(theesg)뉴스
- "저는 50년간 AI를 연구해왔습니다. 지금이 처음으로 두려움을 느끼는 순간입니다."글 ㅣ 최봉혁 칼럼니스트 ㅣ 더이에스지뉴스 2018년 튜링상(컴퓨터 과학계의
[AI 인사йт] "Отец ИИ предупреждает ... Развилка сверхинтеллекта, которая наступит через 10 лет"
"Я 50 лет изучал ИИ. Сейчас момент, когда я чувствую страх впервые."
Статья | Чхве Бонхёк, колумнист | The ESG News
Эти слова Джеффри Хинтона, лауреата премии Тьюринга (Нобелевской премии в области компьютерных наук) 2018 года, — не просто жалоба ученого. Это тревожный сигнал, возвещающий о том, что человечество находится на переломном этапе новой цивилизации, с которым оно никогда раньше не сталкивалось. Он, как Оппенгеймер, предупреждавший человечество о возможности ядерной войны после разработки атомной бомбы, отождествляет свою нынешнюю ситуацию и подчеркивает, что будущее, которое нас ждет, отнюдь не является историей из научной фантастики.
Как колумнист Чхве Бонхёк, я убежден, что развитие этой технологии ИИ и последовательные этические и социальные обязанности являются важным процессом, соответствующим общественным интересам нашего общества. Глубоко понимая предупреждение Хинтона и тщательно анализируя его сознание проблемы и решения, мы получим понимание, которое позволит нам привести наступающую эпоху ИИ в направление, полезное для человечества.
Глава 1. Предупреждение «10–20% вероятности» _ Будущее человечества, в котором часы переведены вперед
В интервью BBC в мае 2024 года Джеффри Хинтон ярко свидетельствовал о том, как его восприятие ИИ изменилось всего за два года. «До 2022 года я думал, что риск неконтролируемого ИИ наступит через 50 лет. Но теперь, когда появился GPT-4, я думаю, что вероятность того, что сверхразум выйдет из-под контроля человечества в течение 10 лет, составляет 10–20%».
Эта цифра в 10–20% может показаться небольшой статистически, но ее значение отнюдь не легкомысленно. В вопросе, от которого зависит выживание человечества, 10–20% означает «угрозу, которая может быть реализована», а не просто «возможность». Это как если бы вероятность крушения самолета была менее 0,0001%, но мы вкладываем все в безопасность. Хинтон объясняет, что скорость развития технологии ИИ выходит за рамки воображения, как скорость обновления смартфонов. В прошлом технологические потрясения происходили раз в 10 лет, но теперь мы вступили в эпоху световой скорости, когда инновации происходят более двух раз в год.
«Поворотный момент», о котором он говорит, относится к способности ИИ к самообучению и развитию. Это как момент, когда ребенок начинает делать свои первые шаги. Как только ребенок начинает ходить, он не останавливается и учится бегать сам, так и ИИ получил потенциал для повышения интеллекта без прямого вмешательства человека. Проблема в том, что, если это самостоятельное развитие выйдет за рамки контроля человека, его результат непредсказуем. Потенциальные риски, которые могут возникнуть, если сверхразумный ИИ с автономией установит цели, противоречащие интересам человечества, или неверно истолкует намерения человека, выходят за рамки воображения.
Глава 2. «Публикация весов ИИ равносильна утечке чертежа ядерного оружия»
Одним из пунктов, против которого Хинтон предостерегает сильнее всего, является вопрос «публикации весов (weight) модели ИИ». Он даже назвал обнародование весов крупной модели ИИ с открытым исходным кодом «безумием, равносильным выкладыванию чертежа ядерного оружия в интернет». Эта аналогия показывает, что он считает разрушительную силу, которую имеет технология ИИ, настолько серьезной, что ее можно сравнить с ядерным оружием.
Его опасения уже стали реальностью, выходя за рамки простого сравнения.
Август 2023 г., инцидент с утечкой весов LLaMA: инцидент, когда веса крупной языковой модели (LLM) LLaMA, разработанной Facebook (ныне Meta), были украдены и проданы на Dark Web за 50 000 долларов (около 70 миллионов вон), показал уязвимость безопасности ИИ. Утекшие веса стали неконтролируемым состоянием, которое можно было изменить с помощью хакерских инструментов или использовать при разработке вредоносного ИИ.
Март 2024 года, случай манипуляции с ИИ с открытым исходным кодом: на самом деле сообщалось о случаях, когда определенная модель ИИ с открытым исходным кодом была сфальсифицирована для создания «чертежа подобия ядерной бомбы». Еще более шокирующим было то, что анализ показал, что физическая реализация чертежа была возможна на 92%. Это означает, что это не теоретическая угроза, а фактическое разрушение, которое может произойти в реальности.
Хинтон сравнил веса ИИ с «секретным рецептом». Как только рецепт курицы KFC становится публичным, возникает множество поддельных куриных ресторанов, так и после публикации весов ИИ бесконтрольно появятся **'вредоносные ИИ'**, преследующие злонамеренные цели. Его предсказание о том, что наступит эпоха, когда террористы смогут создавать ИИ для управления оружием массового уничтожения всего за 1 миллион долларов, больше не является историей далекого будущего. Нельзя упускать из виду, что риски его неправильного использования столь же безграничны, как и его безграничные возможности. Вредоносный ИИ может угрожать жизни человечества во всех возможных областях: хищение личной информации, нарушение работы финансовой системы, разработка автономного смертоносного оружия и т. д.
Глава 3. Чудо, которое принесет сверхразум: революция в медицине и образовании
Наряду с предупреждением об опасности, Хинтон также подчеркнул «чудо», которое ИИ принесет человечеству. Он сказал: «В то же время эта технология — величайшая возможность в истории человечества», подчеркивая положительное влияние, которое ИИ окажет, если он будет разработан и управляться в правильном направлении.
Медицинская революция: ИИ уже добился удивительных результатов в области медицины. Хинтон предсказал, что ИИ-врачи могут повысить точность диагностики рака легких более чем на 40%. Действительно, клиника Mayo в США успешно использовала ИИ для повышения скорости обнаружения рака молочной железы более чем в 30 раз. Анализируя обширные медицинские данные, ИИ может выявлять тонкие закономерности или аномальные признаки, которые человеческие врачи могут пропустить, на ранней стадии, тем самым уменьшая частоту ошибочных диагнозов и значительно повышая точность диагностики. Это окажет огромное влияние на спасение многих жизней и снижение медицинских расходов.
Революция в образовании: ИИ также может способствовать преодолению разрыва в образовании. Хинтон считал, что ИИ-репетиторы один на один могут преодолеть разрыв в академической успеваемости учащихся на 90%. Пример Сеульского национального университета в Корее подтверждает это. Сеульский национальный университет получил удивительные результаты: успеваемость учащихся выросла в среднем на 31% после внедрения системы ИИ-репетиторства. ИИ-репетиторы предоставляют индивидуальное образование в соответствии с уровнем и скоростью обучения каждого учащегося, эффективно дополняя слабые стороны и максимизируя сильные стороны. Это может улучшить качество образования, уменьшить бремя частного образования и, в конечном итоге, способствовать равенству в образовании.
Революция в области окружающей среды и энергетики: ИИ также играет важную роль в решении экологических проблем. Говорят, что сверхпроводники, разработанные ИИ, могут повысить эффективность аккумуляторов электромобилей более чем на 200%. Это означает, что он может сыграть важную роль в максимизации энергоэффективности, снижении выбросов углерода и реагировании на изменение климата.
Послание Хинтона ясно: «Как атомная бомба используется в качестве реактора для производства электроэнергии, так и ИИ может быть спасителем человечества, если его контролировать». ИИ — это меч обоюдоострый, в зависимости от того, как он используется и контролируется, он может стать бедствием для человечества или принести беспрецедентное процветание. Важно не сама технология, а воля и чувство ответственности человека, управляющего этой технологией.
Комментарии0