Чат-боты и мышление: что говорит наука
Когда ChatGPT пишет за вас эссе, вы экономите время — это факт. Но несколько исследований последних лет фиксируют кое-что менее приятное: студенты, пользовавшиеся чат-ботом при выполнении заданий, справлялись с ними хуже тех, кто обходился без него. Учёные пока осторожны в выводах, но вопрос уже поставлен.

Исследование MIT и осторожность с выводами
В 2024 году исследователи из MIT Media Lab опубликовали предварительные результаты работы о когнитивных последствиях использования чат-ботов при написании эссе. Публикация не прошла рецензирование, но попала в крупные издания — в том числе в TIME. Реакция была предсказуемой: заголовки про «деградацию мозга» разошлись быстрее, чем сама статья.
Авторы исследования сами перечислили его ограничения: небольшая выборка, узкая задача, отсутствие данных о долгосрочных последствиях. Вскоре MIT Media Lab прекратил давать комментарии СМИ по этой теме — пресс-служба института объяснила, что лаборатория не продвигает исследования, не прошедшие рецензирование.
Шум утих. Вопрос остался.

Эффект Google — и что пришло ему на смену
Когда в 1990-х поисковые системы стали массовым явлением, психологи зафиксировали любопытный эффект: люди перестали запоминать факты, которые можно легко найти в интернете. В 2011 году это назвали «эффектом Google». Память частично делегировалась поисковику — но сам поиск всё равно требовал усилий: нужно было формулировать запрос, выбирать источник, читать и оценивать текст.
Чат-боты устроены иначе. Если спросить ChatGPT, как работают нейроны, он выдаст структурированный ответ за несколько секунд — без ссылок, без перечня источников, без необходимости что-либо проверять. Большинство пользователей так и не проверяют, откуда взялась эта информация и насколько она точна.
Дирк Линдебаум, профессор Университета Бата, называет это подрывом эпистемической самостоятельности — способности самому искать, оценивать и синтезировать знания. По его словам, чат-боты превращают людей из активных участников познания в пассивных получателей готовых ответов. Отдельно он предупреждает о влиянии на метапознание — умение думать о собственном мышлении, замечать пробелы в рассуждениях, ставить под сомнение собственные выводы.
Эксперименты: кто выигрывает, кто проигрывает
Одно из первых конкретных исследований провёл в 2023 году профессор Матиас Штадлер из Мюнхенского университета Людвига-Максимилиана. 91 студент получил задание разобраться в теме наночастиц в солнцезащитных кремах — области, в которой никто из них не разбирался. После самостоятельного изучения нужно было написать объяснение без заметок. Половина использовала Google (до того, как тот интегрировал ИИ-ответы), другая — ChatGPT.
Студенты из группы ChatGPT оценивали задание как лёгкое. Их ответы оказались заметно слабее.
Другое исследование, опубликованное в журнале Academy of Management Learning & Education, охватило 150 студентов бизнес-школы. Сначала все выполняли кейс без ИИ, затем — второй кейс, причём половине разрешили использовать ChatGPT. Те, кто плохо справился с первым заданием, с чат-ботом показали лучший результат. Те, кто справился хорошо — результат ухудшился.
Отдельное исследование 2025 года опросило более 600 человек об использовании ИИ и параллельно проверило их навыки критического мышления. Участники с наибольшей частотой обращений к ИИ демонстрировали самый высокий уровень когнитивного делегирования и самые низкие показатели критического мышления.

Чат-боты активно проникают и в куда более серьёзные области — например, в медицину. О том, как ИИ диагностирует онкологию с точностью 99%, читайте в материале ИИ против рака: диагностика с точностью 99%.
Университеты между маркетингом и наукой
Штадлер сравнивает чат-боты с фастфудом: в крайнем случае лучше, чем ничего, но постоянная диета на этом — другая история.
Многие преподаватели тем не менее встраивают ИИ в учебный процесс, апеллируя к тому, что рынок труда требует этих навыков. Линдебаум к таким аргументам относится скептически: по его словам, академическое сообщество нередко воспроизводит маркетинговые тезисы ИИ-компаний, не отличая их от научных фактов. Сам он подал заявку на товарный знак «AI-free scholarship» — подтверждение того, что его исследования и курсы не используют ИИ-инструменты.
Университеты по всему миру тем временем подписывают корпоративные контракты с OpenAI и Anthropic, предоставляя студентам и преподавателям доступ к чат-ботам. Часть факультетов выступает против продления этих соглашений — пока без особого успеха.
Почему данных всё ещё мало
Черил Уокслак, исследователь из Университета Южной Калифорнии, указывает на структурную проблему: социальные науки уже упустили момент с социальными сетями — не успели изучить последствия до того, как те стали повсеместными. С ИИ есть шанс сделать иначе, но пока исследования фиксируют отдельные моменты, а не долгосрочную картину.
Есть и техническая сложность: языковые модели обновляются быстрее, чем публикуются рецензируемые исследования. К моменту выхода статьи чат-бот, который изучали, уже устарел. Если ускорить процесс — теряется строгость. Штадлер сейчас ведёт рандомизированный эксперимент с 160 студентами, в котором используются айтрекинг и нейровизуализация, чтобы зафиксировать, какие зоны мозга активны при работе с ИИ-инструментами.
Барбара Ларсон из Северо-Восточного университета учит студентов оспаривать ответы чат-ботов, требовать источники и проверять логику — как минимум это снижает пассивность. Помогает ли в долгосрочной перспективе, пока неизвестно.
«Нам нужно как научному сообществу сделать это лучше на этот раз», — сказала Уокслак. Данные продолжают собираться.
Редакция LifeGlobe.netПросмотров: 5
Деревья светятся при грозах — и это наконец доказано
«Интернет леса»: как птицы и обезьяны делятся тревогой
Этна: самый загадочный вулкан Европы
5 мифов об изучении иностранных языков
Учёные нашли новое применение кофейной гуще
Золотой шар на дне Аляскинского залива наконец опознан
Самые большие водопады мира находятся под водой
Треугольник Пенроуза: невозможная фигура
Закрытые глаза мешают слышать: новое исследование
Таяние льдов замедляет вращение Земли