Ще вчора діти гуглили “що буде, якщо з’їсти пластилін”, а сьогодні просять ChatGPT пояснити структуру ДНК. Штучний інтелект стрімко вростає в наше життя, замінюючи енциклопедії, репетиторів, а тепер підбирається й до… шкільної парти?
У 2024 році в Лондоні приватна школа David Game College запустила пілотну програму, де 20 учнів готуються до іспитів з англійської, біології, інформатики та математики без вчителів, використовуючи ChatGPT та інші AI-інструменти. Замість вчителів, учні отримують підтримку від менторів, які слідкують за їхнім прогресом та надають зворотний зв’язок.
Результати цієї програми поки що не оприлюднені, але вона викликає багато обговорень щодо майбутнього освіти. Чи стане навчання ефективнішим та доступнішим, чи ми навпаки можемо втратити важливі його аспекти?
Ми вже писали про переваги інтеграції ШІ в освіту в нашому блозі. А сьогодні зібрали 5 ключових причин, чому безконтрольне використання ШІ в освіті може бути ризиковане:
Дитина перестає думати
Коли учні щось не розуміють, вони або думають самостійно і шукають відповіді, або запитують. Якщо ж у них є чарівна паличка, яка за секунди видає готову відповідь, то навіщо думати? Професор педагогіки John Spencer, який викладає курс “ШІ для викладачів”, називає це “когнітивною атрофією”. Тобто, поступовою втратою здатності до мислення, коли дитина замість того, щоб самостійно формувати думку просить допомоги у бота.

Це схоже на те, як колись хвилювалися, що діти не зможуть самостійно рахувати, якщо будуть користуватись калькуляторами. Страхи не справдились, проте ситуація з когнітивною атрофією гірша, бо мова не про знання, а про мислення як процес.
Штучний інтелект не має емпатії
Урок — це не лише “що” сказати, а й про те “як”. Вчитель бачить, коли учень опустив очі і не готовий відповідати. Чує, що голос тремтить, коли нервує. Відчуває, коли треба дати час подумати, а коли можна обережно підштовхнути. David Edwards, генеральний секретар глобальної освітянської організації Education International, каже:
“Освіта — це не транзакція. Це стосунки, в яких вчитель сплітає розуміння, довіру і цінності.”
На жаль, ШІ не має почуттів, це мовна модель, що може аналізувати, знайти інформацію, підказати й навіть вивести якусь логічну думку, але не співпереживати, та зрозуміти між рядків, що щось не так.
ШІ може брехати, до того ж впевнено
Так звані “галюцинації ШІ” — це випадки, коли чат-бот вигадує факти. Ненавмисно. Просто йому може здаватись, що деякі з його “припущень” звучать правдиво. Навіть у навчальних запитах ШІ може згенерувати фейкову цитату або неправильне тлумачення історичного факту. А дитина, особливо молодшого віку, не завжди буде перевіряти інформацію.
Освітня нерівність
Коли говорять про штучний інтелект в освіті, часто згадують слово “доступність”. Мовляв, тепер будь-хто зможе навчатися в будь-якій точці світу, безкоштовно, у власному темпі та з персональним підходом. Звучить гарно, але в реальності все трохи складніше.

У 2023 році дослідники з Університету Квінсленда провели глобальне опитування про довіру до ШІ. Вони опитали понад 17 тисяч людей у 17 країнах і один із висновків виявився доволі тривожним: більшість людей боїться, що ШІ не вирівнює можливості, а навпаки робить розрив ще більшим.
Наприклад, в одному випадку дитина має планшет, безлімітний Wi-Fi і підтримку людей навколо, які пояснять як все працює. Вона легко заходить на ШІ-платформу, ставить запитання, оцінює відповідь, порівнює джерела, адаптує чат-бота під себе. А інша дитина не має навіть стабільного інтернету, не говорячи вже про всі інші пункти.
Отут і з’являється новий ризик: буде не “більше можливостей для всіх”, а “більше можливостей для тих, у кого вони вже є”. Так зване “цифрове розшарування” стає ще глибшим, бо тепер воно не тільки про інтернет, а й про те, хто вміє працювати з алгоритмами, ставити запитання, знає, як перевіряти відповіді.
У дослідженні також йдеться про те, що молоді люди, з вищою освітою, з міст більше користуються ШІ й легше вбудовують його в навчання. А це означає, що світ умовно ділиться на “тих, хто дружить з ШІ” і “тих, хто залишається осторонь”. Чи можна це змінити? Так. Якщо ми не просто дамо доступ до технологій, а ще й навчимо, як із ними працювати, як сумніватися, перевіряти, формувати свою думку.
Порушення приватності та безпека даних
Щоб допомагати, ШІ має знати. Але щоб “знати”, він мусить спостерігати: за тим, як дитина формулює речення, що шукає, які слова обирає, скільки часу думає над завданням. Усе це — дані. І вони зберігаються, аналізуються, стають частиною величезної цифрової історії.
І тут виникає питання, на яке поки що немає чіткої відповіді: а хто все це контролює? Хто має доступ? Хто гарантує, що інформація не потрапить у чужі руки або не буде використана для цілей, про які батьки навіть не здогадуються?

У тому ж глобальному дослідженні довіри до ШІ, яке провів Університет Квінсленда, лише 39% людей вважають, що чинні закони достатньо захищають їх у взаємодії з такими системами. Проблема в тому, що в освіті ще не існує чітких стандартів щодо збору й обробки дитячих даних у контексті ШІ. А це означає, що ми ще не знаємо, якою саме інформацією вже володіє “навчальний бот”.
Тож справа не в тому, що ШІ “поганий”. Він просто не має етичного компаса. І якщо ми вирішимо вводити ШІ в школах, це має бути не “на автоматі”, а з питаннями: Які дані збираються? Хто має до них доступ? Чи можемо ми це обмежити?
Машина не замінить людину. Поки що
ШІ не стомлюється, не забуває теми, не плутає домашки. Але він і не бачить, як блищать очі, коли дитина нарешті зрозуміла. Він не вміє чекати, коли учень мовчить, шукаючи слова, та підтримати в необхідний момент. Саме тому замінити вчителя — не його роль. Але підсилити — цілком можливо.
ШІ може стати добрим помічником, коли ми навчимось правильно ставити межі. Якщо звільнити вчителя від рутини — з’являється простір для головного: натхнення, підтримки, відвертих розмов. Майбутнє освіти не в тому, щоб прибрати людину з рівняння, а в тому, щоб зробити людину ще більш видимою. Саме вчитель — це той, хто вчить не тільки формул, а й бачити та розуміти, думати та формулювати. І це незамінно.