Искусственный интеллект как угроза. Отдельные правительства и СМИ просят техногигантов «притормозить» с разработкой ИИ. Чего они боятся /Мария Шарлай с помощью ИИ MidJorney
Категория
Инновации
Дата

Искусственный интеллект как угроза. Отдельные правительства и СМИ просят техногигантов «притормозить» с разработкой ИИ. Чего они боятся

Мария Шарлай с помощью ИИ MidJorney

Бум использования ИИ-инструментов пришелся на последние полгода. Это объясняет обеспокоенность влиянием ИИ на человечество и отсутствие регулирующих его законов. Какую именно угрозу видят в искусственном интеллекте? Как на нее реагируют законодатели? Forbes анализирует сомнения, звучащие вокруг внедрения ИИ

🎂 День народження у нас — подарунки вам. Forbes Ukraine чотири роки, тому даруємо 44% знижки на річну підписку на сайт Forbes. Діє з промокодом FORBES4 до 31 березня. Оформлюйте зараз за цим посиланням

На прошлой неделе ряд изданий, среди которых Politico и Reuters, сообщили об открытом письме, которое подписали более 1000 человек, среди которых гендиректор Tesla и Twitter Илон Маск и авторитетный канадский ІТ-ученый Йошуа Бенджио.

Подписанты письма призывают разработчиков немедленно приостановить работу над усовершенствованием ИИ-систем на следующие шесть месяцев и вместе с законодателями «резко увеличить разработку систем контроля» ИИ-технологии. В письме лаборатории ИИ обвиняют в «бесконтрольной погоне за развитием и применением все более мощных цифровых умов, которые никто не может понять, как надежно контролировать».

Некоторые считают лицемерным со стороны Маска подписывать такое письмо, учитывая то, с каким упорством он и Tesla сопротивлялись ответственности за дефектный ИИ в технологии автопилота, который добавляли в автомобили компании.

Впрочем, это все же не делает вопрос формулирования четких правил и инструкций менее актуальным, особенно если принять во внимание сокращение команд этической разработки ИИ в ряде технологических компаний. Кроме того, многих людей волнует, не оставит ли ИИ их без работы.

Этика и искусственный интеллект

Издание The Verge недавно сообщало о том, что компания Microsoft распустила команду, которая следила за ответственной и нравственной разработкой технологии. По словам действующих и бывших работников, теперь у Microsoft нет команды, которая обеспечивала бы соблюдение принципов ответственной разработки продуктов на основе ИИ. И это тогда, когда компания разрабатывает ИИ-инструменты для общего использования.

Financial Times пишет также о других компаниях, сокративших количество работников, занимающихся этикой ИИ. При Илоне Маске, активном поборнике контроля за ИИ, в Twitter распустили небольшую этическую команду ИИ. В сентябре Meta ликвидировала команду ответственных инноваций, состоявшую из около 20 инженеров и специалистов по этике.

А во время массового сокращения сотрудников Alphabet среди 12 000 потерявших работу оказались те, кто занимался наблюдением за нравственной разработкой ИИ в Google.

Все, кто задействован в разработке ИИ, согласны с тем, что технология несет серьезные экзистенциальные риски. Техногиганты уверяют, что относятся к этим рискам серьезно, но любые сокращения команд, обеспечивающих ответственную разработку продуктов, вызывают беспокойство.

Такие команды должны быть в каждой компании, желающей разрабатывать новые продукты. Они помогают разработчикам предугадать потенциальные риски и проблемы новой технологии, а также устранить их, прежде чем продукты на основе этих технологий попадут в руки пользователей.

А еще у них есть задача говорить «нет» или «притормозите» компаниям, которые часто не хотят такое слышать.

ИИ и рынок труда

Financial Times сделал обзор исследования Goldman Sachs, результаты которого показывают, что 300 млн штатных сотрудников крупных экономик испытывают влияние технологий ИИ.

Две трети профессий в США и Европе попадут под определенный уровень влияния автоматизации, а юристы и административные сотрудники рискуют оказаться ненужными. У большинства людей автоматизации подлежит меньше половины рабочей нагрузки, а освободившееся время они смогут тратить на более продуктивные задачи.

Около 7% американских работников занимают должности, по крайней мере 50% задач которых может выполнять генеративный ИИ, поэтому они уязвимы и могут потерять работу.

Европол предостерегает, что быстрое развитие генеративного ИИ может способствовать мошенничеству в сети и деятельности киберпреступников, а большие языковые модели могут стать основой для криминальной бизнес-модели будущего.

Все чаще представители творческих профессий говорят о своей обеспокоенности тем, что разработчики генеративных ИИ-инструментов используют работы художников и музыкантов для обучения своих моделей без разрешения правообладателей произведения.

Такие инструменты, как ChatGPT, DALL-E и MusicLM (генерирующая музыку), могут оставить людей соответствующих креативных профессий без заработка. Иллюстраторы, коммерческие графические дизайнеры и редакторы изображений могут оказаться ненужными.

В январе группа художников подала коллективный иск в Калифорнии против Stability AI, Midjourney и художественного сайта DeviantArt за неправомерное использование их работ для обучения модели ИИ Stable Diffusion.

А в феврале 2023-го фотобанк Getty Images подал в суд на Stability AI, разработчика ИИ-генератора изображений Stable Diffusion. В частности, Getty Images обвиняет стартап в неправомерном использовании более 12 млн изображений фотобанка для тренировки своей системы.

Следует отметить, что не все создатели против обучения моделей ИИ на их работах, но требуют отладки механизмов согласия и компенсации. Создатели имеют право на выбор в том, разрешать или не разрешать использовать их работы для тренировки ИИ.

О создателях уже намерена побеспокоиться Adobe. The Verge сообщает о том, что компания планирует платить художникам, которые согласятся предоставить свои работы для тренировки ИИ.

Adobe надеется предотвращать плагиат, предложив художникам способ не давать ИИ учиться на их работах. Компания работает над системой «Не тренируй», которая будет позволять художникам встраивать такой запрос в метаданные изображения. Если создатели разных ИИ-инструментов учтут такой запрос, их системы не будут использовать для обучения произведения с такой просьбой.

Stability AI пообещала уважать желания художников, зарегистрировавших свои запросы на то, чтобы их работы не использовали для обучения моделей, на сайте Have I Been Trained? Работы таких художников удалят из обучающей базы следующего большого релиза компании.

Что делают законодатели?

Если говорить о широкой нормативно-законодательной базе для регулирования разработки и использования ИИ, то она в процессе создания. Reuters пишет о том, что Европейский Союз работает над законом об искусственном интеллекте, призванном классифицировать различные инструменты ИИ в соответствии с определенным уровнем риска: от низкого до недопустимого.

Этот всеобъемлющий закон будет касаться всех, кто предоставляет продукты или услугу на основе ИИ, и будет распространяться на генеративные системы. Он будет работать в тандеме с другими законами, такими как Общий регламент защиты данных.

К ИИ-инструментам высокого риска может относиться ряд продуктов, используемых в критической инфраструктуре, правоохранительных органах или образовании. Такие инструменты, вероятно, будут подвергаться тщательной оценке рисков, компании вынуждены будут вести журнал активности и предоставлять регуляторам данные для обзора. Это может привести к увеличению расходов компаний на юридические услуги.

Также предлагается отдельная категория (система ИИ общего назначения) для ИИ-инструментов, имеющих ряд применений, как генеративные модели типа ChatGPT.

Законопроект предлагает, чтобы штрафы нарушителям будущего закона достигали €30 млн.

Ожидается, что законопроект будет принят в этом году, но точная дата не объявлена. После принятия закона и его вступления в силу у компаний будет около двух лет, чтобы привести свои операции в соответствие с новым законом.

А пока некоторые наносят превентивный удар и запрещают некоторые ИИ-инструменты. OpenAI закрыла доступ к ChatGPT для Италии после того, как Агентство по защите данных страны временно запретило чат-бот.

Запрет могут снять после завершения расследования о нарушении законов о конфиденциальности. Агентство также обвиняет OpenAI в отсутствии надлежащей проверки возраста пользователей чат-бота, которым должно быть не менее 13 лет.

Агентство утверждает, что «не существует никаких законных оснований для масштабного сбора и хранения личных данных для обучения ChatGPT». У OpenAI есть 20 дней на то, чтобы исправить эти нарушения, иначе компания рискует получить штрафов до €20 млн, или 4% годовых мировых чистых продаж.

Великобритания – хаб ИИ

А Великобритания тем временем хочет стать хабом для разработчиков ИИ. Новая министр цифровых технологий страны Мишель Донлен в среду рассказала о плане правительственной инициативы по регулированию ИИ, не предусматривающему жесткого контроля.

Politico пишет, что согласно плану регуляторным органам страны дается год на то, чтобы разработать «практические инструкции» для безопасного использования в их сферах машинного обучения, руководствуясь широкими принципами безопасности, открытости, справедливости и ответственности.

Но Туманный Альбион не планирует формирование новых профильных органов или законопроектов для регулирования ИИ.

Донлен уверена, что ее «подход, основанный на здравом уме и направленный на результаты», даст Великобритании возможность «стать лучшим местом в мире для создания, тестирования и использования ИИ-технологий».

Технологические эксперты не удивлены таким подходом. Директор ИИ-политики в Институте Ады Лавлейс Майкл Бертвисл говорит, что такой подход оставляет «существенные пробелы», которые могут повредить пользователям.

«Нам не стоит изобретать то, что мы не можем контролировать», – предупреждает исследователь Института Ады Лавлейс Коннор Аксиотс.

Материалы по теме

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Исправить
Предыдущий слайд
Следующий слайд
Новый выпуск Forbes Ukraine

Заказывайте с бесплатной курьерской доставкой по Украине