Соучредитель Apple и создатель Siri Стив Возняк предупредил, что искусственный интеллект может использоваться в плохих целях и усложнить обнаружение мошенничества и дезинформации, пишет The Guardian. Возняк считает, что контент, созданный с помощью ИИ, должен быть помечен, и призывает к регулированию.
Amazon інвестує мільярди доларів у ШІ, роботів та машинне навчання. Якими принципами й правилами керується компанія?
Дізнайтеся вже 22 листопада на Forbes Tech 2024. Купуйте квиток за посиланням!
Ключевые факты
- Возняк был среди более 1800 человек, подписавших в марте письмо вместе с исполнительным директором Tesla Илоном Маском, призвавшим к шестимесячной паузе в разработке мощных систем ИИ, утверждая, что они представляют серьезную опасность для человечества.
- «ИИ настолько умен, что открыт для плохих игроков, тех, кто хочет обмануть вас в том, кто они на самом деле», – сказал он.
- Возняк не верит, что ИИ заменит людей, потому что ему не хватает эмоций, но предупредил, что он сделает «плохих игроков» более убедительными, потому что такие программы, как ChatGPT, могут создавать «звучащий так разумно» текст.
- Он считает, что ответственность за программы, созданные ИИ, лежит на публикующих их: «Человек действительно должен взять на себя ответственность за то, что генерирует ИИ».
- Возняк сказал, что эту технологию невозможно остановить, но добавил, что можно научить людей обнаруживать мошенничество и злонамеренные попытки кражи личной информации.
Контекст
В конце ноября 2022 года OpenAI – американская лаборатория ИИ, среди совладельцев которой Илон Маск, представила свою разработку ChatGPT на базе продвинутой нейросетевой модели GPT-3.5. Языковая модель на базе ИИ может отвечать на вопросы, помогать с составлением писем, эссе и написанием кода. В середине марта компания Open AI представила четвёртую версию языковой модели ChatGPT.
После этого более 1000 технологических лидеров и исследователей подписали открытое письмо с призывом ввести шестимесячный мораторий на разработку новых систем, поскольку технологии ИИ составляют «серьезные риски для общества и человечества». Через несколько дней 19 нынешних и бывших лидеров Ассоциации по развитию искусственного интеллекта, академического общества с 40-летней историей, выпустили собственное письмо с предупреждением о рисках, связанных с ИИ.
Вы нашли ошибку или неточность?
Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.