Достаточно поменять строчку: ИИ сравним с ядерными технологиями

Достаточно поменять строчку: ИИ сравним с ядерными технологиями

В конце марта американский бизнесмен Илон Маск, сооснователь соцсети Pinterest Эван Шарп и сооснователь Apple Стив Возняк подписали открытое письмо. Они потребовали приостановить разработки более мощных, чем GPT-4, нейросетей хотя бы на полгода. Пауза нужна для создания протоколов безопасности в сфере искусственного интеллекта.

Специалисты IТ-отрасли предупредили, что продвинутые системы искусственного интеллекта могут представлять опасность для общества. Вплоть до того, что люди вообще рискуют потерять контроль над цивилизацией.

К слову, еще раньше про эту угрозу говорил британский физик Стивен Хокинг. Ученый считал, что искусственный интеллект может оказаться опаснее ядерного оружия. В будущем может случиться так, что машины с нечеловеческим интеллектом будут самосовершенствоваться, и ничто не сможет остановить данный процесс.

Уже сейчас отмечается много эксцессов с низкоуровневыми системами ИИ. В Китае на сотни идёт счёт случаев, когда роботы, выйдя из-под контроля, убивали или калечили людей. Некоторые страшные эпизоды попали в поле зрения камер видеонаблюдения.

Конфликтов людей с роботами становится всё больше. Еще один пример из Китая: разъярённая женщина атаковала аппарат регистрации в больнице, потому что долго не могла записаться на приём к врачу.

"Существует организация, которая накапливает проблемы, связанные с искусственным интеллектом, когда это убивало или калечило людей. Там уже 500 эпизодов, – рассказывает эксперт по кибербезопасности Андрей Масалович. – Робот прибил человека к стене, манипуляторы на поточных линиях начали соседей калечить. У них появилось понятие "вобот", т.е. робот, который кроме своих задач, видит человека рядом и пытается не причинить ему вред".

Роботы, как мы уже отметили, обладают весьма примитивным искусственным интеллектом. Их программируют на выполнение конкретных задач. Возможности сложных нейронных сетей гораздо шире. Их главное отличие – это способность к обучению, что даёт им колоссальное преимущество перед традиционными алгоритмами.

Разберём, как работает нейросеть, на примере её биологического прообраза – человеческого мозга. Он состоит из нейронов – клеток, которые накапливают и передают информацию в виде химических и электрических импульсов. Связи между ними формируются за счёт длинных и коротких отростков – аксонов и дендритов.

Например, человеческий глаз видит кошку. Световая волна попадает в сложную нейронную сеть мозга. На основе предыдущего опыта и знаний мозг обрабатывает информацию и приходит к выводу, что перед нами кошка. Аналогично работает и машинная нейросеть. Первая модель, воссозданная с помощью математического кода, получила название перцептрон. На схеме её обычно изображают в виде кружков, соединённых прямыми линиями. Изначально модель состояла всего из одного слоя и имела три типа элементов: первый принимал информацию, второй – обрабатывал и создавал ассоциативные связи, третий выдавал результат. Современные нейросети гораздо сложнее по структуре, но принцип действия такой же.

Учёные опасаются, что такая технология может выйти из-под контроля. Нейросети способны наводнить информационное пространство огромными объёмами ложных данных. В том числе искусственно созданными фото- и видеоматериалами, которые невозможно будет отличить от реальности – так называемые "дипфейки". А в перспективе искусственный интеллект вообще научится управлять финансовыми рынками, проводить исследования и даже разрабатывать оружие.

"Главная проблема неосознанная, – предупреждает Масалович. – Уже сейчас существует очень много военных применений, в которых нейросеть сделана до последнего шага. Она выводит на курс, доводит до цели, распознает цель, прицеливается и потом переспрашивает, стрелять или не стрелять. В этих программах достаточно поменять одну строчку – "стреляй сама". И мир наполнится вот таким вот оружием".

Можно продолжить аналогию с ядерными технологиями: с одной стороны, их можно использовать для создания разрушительного оружия, но, с другой стороны, атом бывает и мирным. Так же и с нейросетями: не стоит бороться с прогрессом, но важно оценить все риски и продумать систему безопасности. Именно такой стратегии в отношении развития искусственного интеллекта придерживается Россия.

Источник

Ссылка на основную публикацию