В последние годы на педагогическое сообщество оказывает давление нарратив: «искусственный интеллект отбирает у нас работу», который сегодня звучит уже почти как неоспоримый факт, который порождает страх. Но за этим страхом теряется главное: ИИ – не субъект образовательной политики, а инструмент. А инструмент, как напоминает старая педагогическая мудрость, ничего не делает сам, он лишь в руках человека обретает силу.

Вопрос не в том, допускать или не допускать нейросети в школу. Они уже там. Вопрос в том, какую роль мы отведём ИИ, чтобы он не подменял собой мышление ученика, не превращал учителя в оператора подсказок, а стал полноценным со-агентом в учебной триаде «учитель – ученик – искусственный интеллект».
Анализ текущей практики позволяет выделить три принципиально разные модели присутствия ИИ в классе.
Первая, самая нежелательная – ИИ как угроза и заменитель мышления. Ученик просто копирует ответ чат-бота, учитель получает иллюзию выполненной работы. Ничему научиться здесь невозможно. Это история схожа с памятными ранее, но ушедшими в архив книгами «Готовые домашние задания».
Вторая, привычная и комфортная – ИИ как инструмент учителя для генерации текстов, заданий, рубрик, примеров. Это лучше, чем первая модель, но она не меняет сути: ученик остаётся в позиции получателя, а учитель – единственным источником педагогического дизайна.
Третья, наиболее продуктивная – ИИ как со-агент в распределённом познании. Здесь искусственный интеллект не заменяет ни учителя, ни ученика, а дополняет когнитивные возможности обоих. Именно эта модель позволяет реализовать потенциал, заложенный в SAMR-модели Руба Пуэнтедура.
Напомним ключевые уровни этой модели применительно к ИИ.
Substitution (подмена) – ученик использует чат-бот вместо поисковика. Функция не меняется. Augmentation (накопление) – ИИ сразу даёт определение, примеры, переводы. Возникает функциональное улучшение. Modification (перепроектирование) – ИИ генерирует разноуровневые вопросы, учитель проектирует дифференцированную работу. Задача переосмыслена. Redefinition (преобразование) – появляются задачи, ранее невозможные: сократический диалог с ИИ-тьютором, коллективные проекты, где нейросеть выступает равноправным генератором гипотез и контраргументов.
Именно последние два уровня – перепроектирование и преобразование – являются нашей целью. Они позволяют сместить фокус с нижних этажей таксономии Блума (запоминание, понимание) на верхние: анализ, оценку, создание.
Чтобы ИИ не разрушал, а усиливал обучение, необходима чёткая граница когнитивных функций.
Оставляем учителю: целеполагание и формулировку образовательных результатов; эмоциональную поддержку и ценностно-смысловую оценку; метакогнитивную рефлексию; создание психологической безопасности и управление групповой динамикой.
Делегируем ИИ: первичную генерацию текстов, заданий, примеров; структурирование материала по уровням сложности; проверку формальных параметров и выявление типичных ошибок; роль «сократического собеседника» и генерацию альтернативных перспектив.
ИИ не может и не должен принимать педагогических решений. Его задача – расширять когнитивное разнообразие, а не подменять учительское присутствие.
Возьмём для примера классическое задание: «Напишите эссе…». В эпоху ИИ оно в чистом виде бессмысленно – нейросеть напишет эссе за десять секунд. Перепроектируем.
- Ученик формулирует собственные гипотезы.
- ИИ предлагает контраргументы.
- Ученик анализирует, верифицирует, дорабатывает свою позицию.
- Учитель оценивает не столько текст, сколько метакогнитивный комментарий ученика: почему он принял или отклонил те или иные аргументы ИИ.
Критерии качественного перепроектирования просты: задание невозможно выполнить простым копированием ответа ИИ; роль ученика – критическая оценка, синтез, принятие решений; ИИ не даёт готового знания, а создаёт когнитивный конфликт.
Сомнение, которое возникает в этой связи простое – меняется функция учителя-словесника. Это уже сложный дискуссионный вопрос для новой статьи.
Важно, что учитель должен осознавать, как включить ИИ в образовательный процесс. На основе теоретического анализа и практических апробаций можно сформулировать пять принципов, которые работают как «перила» – не ограничивают, но не дают упасть.
- Принцип когнитивной ответственности – ИИ не делает за ученика то, что ученик должен освоить сам.
- Принцип метакогнитивной прозрачности – ученик фиксирует, как именно использовал ИИ.
- Принцип распределённого авторства – оценивается вклад ученика, а не только конечный результат.
- Принцип верификации фактов – любой факт, полученный от ИИ, подлежит проверке.
- Принцип сохранения педагогического присутствия – обратная связь по ценностям, смыслам и эмоциям – исключительная зона учителя.
Работа с ИИ в школе требует осознанного отношения к рискам. Можно обозначить следующий этический контур:
Предвзятость алгоритмов. Любой ИИ обучен на данных, которые могут содержать искажения. Это не повод отказаться от инструмента, но повод для обсуждения в классе.
Защита персональных данных. ФИО учеников не должны вводиться в публичные ИИ-сервисы.
Иллюзия авторитетности. Формируем устойчивую привычку: факт от ИИ требует верификации.
Вместо заключения
Все проблемы в мире – не от искусственного интеллекта. Как тонко заметил один из участников одной педагогической дискуссии, «если бы у людей был настоящий интеллект, проблем бы не было». ИИ не отнимает работу у учителя – он отнимает у него право на рутину. А взамен предлагает то, что раньше казалось невозможным: стать не транслятором знаний, а фасилитатором мышления, не одиночкой с указкой, а участником когнитивной триады.
Главное помнить простое правило, что человек становится человеком только среди людей. Искусственный интеллект в этой триаде – третий, но вовсе не лишний.
Дмитрова Анна Владимировна (Ростов-на-Дону), директор Института филологии, журналистики и межкультурной коммуникации Южного федерального университета, кандидат филологических наук, абсолютный победитель конкурса «Учитель года Дона – 2009» в номинации «Педагогический дебют», лауреат премии Президента РФ

Комментарии