Адміністрація президента США Джо Байдена планує обмежити експорт до Китаю передових ШІ-моделей, основного програмного забезпечення систем штучного інтелекту, таких як ChatGPT, пише Reuters із посиланням на джерела.
Amazon інвестує мільярди доларів у ШІ, роботів та машинне навчання. Якими принципами й правилами керується компанія?
Дізнайтеся вже 22 листопада на Forbes Tech 2024. Купуйте квиток за посиланням!
Ключові факти
- Міністерство торгівлі США розглядає можливість вжиття нових нормативних заходів щодо обмеження експорту моделей штучного інтелекту із закритим вихідним кодом, повідомили три джерела, знайомі з цим питанням.
- Заходи доповнять низку обмежень, вжитих за останні два роки, щоб заблокувати експорт чипів штучного інтелекту до Китаю у спробі уповільнити розвиток Пекіном передових технологій для військових цілей.
- Наразі ніщо не зупиняє американських гігантів штучного інтелекту, таких як Microsoft та OpenAI, DeepMind і Anthropic, які розробили одні з найпотужніших ШІ-моделей із закритим вихідним кодом, продавати їх практично будь-якій людині у світі без державного контролю.
- Дослідники з державного та приватного сектору стурбовані тим, що противники США можуть використовувати моделі, які аналізують величезні обсяги тексту та зображень для узагальнення інформації та створення контенту, для проведення агресивних кібератак або навіть для створення потужної біологічної зброї.
- Джерела повідомили, що для розробки експортного контролю над моделями США можуть звернутися до порогового значення, зазначеного в указі про штучний інтелект, виданий у жовтні минулого року. Він ґрунтується на обсязі обчислювальної потужності, необхідної для навчання моделі. Коли цього рівня буде досягнуто, розробник повинен повідомити свої плани розробки моделі ШІ і надати результати випробувань Міністерству торгівлі.
- За словами двох американських чиновників та іншого джерела, цей поріг обчислювальної потужності може стати основою для визначення того, які моделі ШІ підлягатимуть експортним обмеженням.
Контекст
Аналітичні центри та вчені все більше стурбовані ризиками, які можуть виникнути внаслідок доступу зловмисників до передових можливостей ШІ. Зокрема, передові моделі штучного інтелекту можуть надати інформацію, яка могла б допомогти у створенні біологічної зброї.
Урядовці вважають, що кіберзлочинці, ймовірніше, використовуватимуть ШІ для більш масштабних, швидких та ефективніших кібератак.
Ви знайшли помилку чи неточність?
Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.