Викладачі повинні встановити чітку політику на своїх курсах, яка не має ігнорувати реальність, і пропонувати студентам указівки, як і де можна використовувати ChatGPT.
В останні місяці світову академічну спільноту сколихнула новина про запуск текстового бота ChatGPT, який, використовуючи штучний інтелект, дозволяє у форматі запитів-відповідей генерувати текстову інформацію. Відповіді подаються в доволі стрункій формі. Вони гарно структуровані та у випадку добре продуманого питання відображають і контент, і фактаж, і дискусію навколо проблеми.
Це одразу насторожило викладацьку спільноту, оскільки ChatGPT показав, що може успішно впоратися за кілька секунд із такими завданнями, як: «Напишіть есе на вказану тему», «Проаналізуйте подію». Чат добре дає раду з тестовими завданнями та іншими активностями, що вимагають роботи з текстами, формулами, кодуваннями тощо. Постало важливе питання академічної доброчесності та етики використання штучного інтелекту в освітньому процесі.
Традиційно у сприйнятті будь-яких нових явищ думки розділилися від «заборонімо все на бюрократичному рівні» до «інтегруймо цей інструмент в освітній процес». Дебати точаться досі, та поряд із тим більш активні викладачі почали тестувати цього бота, так само як і студенти.
Які переваги та загрози несе ChatGPT і що потрібно врахувати, працюючи із ним
Цей бот не є оракулом, він усього-на-всього набір алгоритмів. Мозок кожного із нас користується подібними і навіть складнішими наборами алгоритмів щодня – від переходу дороги до рішення, із ким і як привітатися. Успішність алгоритмів ChatGPT залежить від того, як їх запрограмували люди-розробники і як перевірили люди-тестери.
В одному із листувань викладач та заступник декана факультету прикладних наук УКУ Олексій Молчановський влучно зауважив, що «поточний стан розвитку штучного інтелекту, зокрема ChatGPT, не дуже «вміє у логіку». Тобто справді, нетривіальні логічні висновки або прослідковування семантичних звʼязків ця система не може робити».
Багато з тих, хто встиг протестувати бота, зауважили, що він іноді «вигадує» факти чи пояснення, не може на підставі даних спрогнозувати майбутні кроки. Мої особисті перевірки показали, що бот обирає найбільш поширені версії, а тому легко відтворює пропагандистські чи заідеологізовані наративи.
Декан факультету прикладних наук УКУ Ярослав Притула підсумував, що «машина не розуміє логіки як такої, вона відтворює інформацію, накопичену у світі. Якщо ставити питання, які виходять за ці рамки (наприклад, прогноз зі складною логікою), то машина не має відповіді або видасть щось нерелевантне».
Окрім нерелевантності відповідей чи неправдивості даних, однією з найбільших загроз є недоброчесна поведінка. Піддавшись на лінь чи спокусу, можна доволі просто використовувати бот для формування чи написання різних текстових завдань, розв’язування тестів та кейсів. Хоча вже існують інші чат-боти, що здатні виявити плагіат, проте доволі скрупульозна робота з питаннями-відповідями на ChatGPT, додавання власних ідей чи звичайне «окозамилювання» буде здатне обходити перевірки.
Та кожна загроза є нагодою, тому викладачам варто переосмислити якість тих навчальних завдань, які вони пропонують студентам для роботи. Якщо бот добре вправляється із завданнями на відтворення чи пригадування, то його явна слабкість – критичне мислення, унікальність, творчість.
Викладачі повинні встановити чітку політику на своїх курсах, яка має не ігнорувати реальність, а передбачати потенційні ризики і пропонувати студентам вказівки, як і де можна використовувати ChatGPT, як правильно з ним працювати, як правильно цитувати тощо.
Наприклад, на перших парах моїх дисциплін, які читаю в цьому семестрі, я одразу повідомив студентам, що не проти, якщо вони використовуватимуть ChatGPT, однак пояснив його обмеження. Я змінив деякі завдання та планую одразу в класі використовувати чат для розв’язання окремих задач. Іншими словами, ми зі студентами маємо навчитися, як використовувати бот для якіснішого аналізу. І це захоплива гра, яка запалить дослідницький дух в усіх «живих» учасниках освітнього процесу.
Я також спробував ChatGPT у ролі планувальника деяких моїх класів чи публічних лекцій, даючи завдання, вказати, що я пропустив у своєму плануванні чи які нові дослідження з’явилися, котрі мені варто перечитати. Та моє найбільше відкриття – підказки як кодувати, впорядковувати та аналізувати статистичні дані в інших програмах (наприклад, Python), вивчити які на повноцінних курсах мені не дозволяв брак часу.
Нам точно не варто відмовлятися від технічних засобів, які можуть іноді полегшити роботу та покращити якість освітніх продуктів. Але, працюючи з цими інструментами, варто поставити бодай три ціннісних дороговкази: чесність, обережність та відповідальність.
На одній із дискусій, організованій бізнес-школою УКУ, Антон Скрипник, CЕО компанії KindGeek, вдало схарактеризував ChatGPT: «Це наче другий пілот: він може бути дуже помічним, наприклад, вчасно вкаже вам на проблеми чи підсилить, але керувати літаком все ж таки маєте ви».
Замість P.S.
Я перепитав у ChatGPT, чи вдалося збалансувати цей текст, чи згадані мною принципи важливі для роботи із ним. І його відповідь була: «Даний текст можна вважати збалансованим, оскільки він містить як позитивні, так і негативні відгуки про ChatGPT та його можливості. Також автор наводить приклади, коли бот може бути корисним у роботі зі студентами, а також наголошує на тому, що викладачі повинні встановити чітку політику щодо використання ChatGPT та надавати вказівки студентам щодо правильного використання цієї технології. Отже, текст містить об’єктивний погляд на можливості та недоліки ChatGPT.
У цьому тексті наголошується на цінностях, які є важливими для нашої роботи з технічними засобами, і я згоден із цими принципами. Ці принципи можуть допомогти нам створювати продукти, які будуть корисними для людей та нешкідливими для нашого світу».
Ви знайшли помилку чи неточність?
Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.