Соучредитель Apple Возняк предупредил о сложностях с обнаружением мошенничества и дезинформации из-за ИИ /Getty Images
Категория
Новости
Дата

Соучредитель Apple Возняк предупредил о сложностях с обнаружением мошенничества и дезинформации из-за ИИ

1 хв читання

Getty Images

Соучредитель Apple и создатель Siri Стив Возняк предупредил, что искусственный интеллект может использоваться в плохих целях и усложнить обнаружение мошенничества и дезинформации, пишет The Guardian. Возняк считает, что контент, созданный с помощью ИИ, должен быть помечен, и призывает к регулированию.

Ключевые факты

  • Возняк был среди более 1800 человек, подписавших в марте письмо вместе с исполнительным директором Tesla Илоном Маском, призвавшим к шестимесячной паузе в разработке мощных систем ИИ, утверждая, что они представляют серьезную опасность для человечества.
  • «ИИ настолько умен, что открыт для плохих игроков, тех, кто хочет обмануть вас в том, кто они на самом деле», – сказал он.
  • Возняк не верит, что ИИ заменит людей, потому что ему не хватает эмоций, но предупредил, что он сделает «плохих игроков» более убедительными, потому что такие программы, как ChatGPT, могут создавать «звучащий так разумно» текст.
  • Он считает, что ответственность за программы, созданные ИИ, лежит на публикующих их: «Человек действительно должен взять на себя ответственность за то, что генерирует ИИ».
  • Возняк сказал, что эту технологию невозможно остановить, но добавил, что можно научить людей обнаруживать мошенничество и злонамеренные попытки кражи личной информации.

Контекст

В конце ноября 2022 года OpenAI – американская лаборатория ИИ, среди совладельцев которой Илон Маск, представила свою разработку ChatGPT на базе продвинутой нейросетевой модели GPT-3.5. Языковая модель на базе ИИ может отвечать на вопросы, помогать с составлением писем, эссе и написанием кода. В середине марта компания Open AI представила четвёртую версию языковой модели ChatGPT.

После этого более 1000 технологических лидеров и исследователей подписали открытое письмо с призывом ввести шестимесячный мораторий на разработку новых систем, поскольку технологии ИИ составляют «серьезные риски для общества и человечества». Через несколько дней 19 нынешних и бывших лидеров Ассоциации по развитию искусственного интеллекта, академического общества с 40-летней историей, выпустили собственное письмо с предупреждением о рисках, связанных с ИИ.

Материалы по теме

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Предыдущий слайд
Следующий слайд