Співзасновник Apple Возняк попередив про складнощі з виявленням шахрайств і дезінформації через ШІ /Getty Images
Категорія
Новини
Дата

Співзасновник Apple Возняк попередив про складнощі з виявленням шахрайств і дезінформації через ШІ

1 хв читання

Getty Images

Співзасновник Apple і творець Siri Стів Возняк попередив, що штучний інтелект може використовуватися в поганих цілях та ускладнити виявлення шахрайства й дезінформації, пише The Guardian. Возняк вважає, що контент, створений за допомогою ШІ, має бути помічений, і закликає до регулювання.

Ключові факти

  • Возняк був серед більш ніж 1800 осіб, які підписали в березні листа разом із виконавчим директором Tesla Ілоном Маском, який закликав до шестимісячної паузи у розробці потужних систем ШІ, стверджуючи, що вони становлять серйозну небезпеку для людства. 
  • «ШІ настільки розумний, що відкритий для поганих гравців, тих, хто хоче обдурити вас у тому, хто вони насправді», – сказав він.
  • Возняк не вірить, що ШІ замінить людей, тому що йому не вистачає емоцій, але попередив, що він зробить «поганих гравців» переконливішими, бо такі програми, як ChatGPT, можуть створювати текст, який «звучить так розумно».
  • Він вважає, що відповідальність за програми, створені ШІ, лежить на тих, хто їх публікує: «Людина дійсно має взяти на себе відповідальність за те, що генерує ШІ».
  • Возняк сказав, що цю технологію неможливо зупинити, але додав, що можна навчити людей виявляти шахрайство та зловмисні спроби крадіжки особистої інформації.

Контекст

Наприкінці листопада 2022 року OpenAI – американська лабораторія ШІ, серед співвласників якої Ілон Маск, представила свою розробку ChatGPT на базі просунутої нейромережевої моделі GPT-3.5. Мовна модель на базі ШІ може відповідати на запитання, допомагати зі складанням листів, есе та написанням коду. У середині березня компанія Open AI представила четверту версію мовної моделі ChatGPT.

Після цього понад 1000 технологічних лідерів і дослідників підписали відкритий лист із закликом ввести шестимісячний мораторій на розробку нових систем, оскільки технології ШІ становлять «серйозні ризики для суспільства та людства». Через кілька днів 19 нинішніх і колишніх лідерів Асоціації з розвитку штучного інтелекту, академічного товариства з 40-річною історією, випустили власний лист із попередженням про ризики, повʼязані з ШІ. 

Матеріали по темі

Ви знайшли помилку чи неточність?

Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.

Попередній слайд
Наступний слайд