Галлюцинации и ложь ИИ не позволяют эффективно использовать их в образовании
По словам политолога Павла Данилина, искусственный интеллект пока не способен глубоко анализировать и понимать информацию, что делает его использование в образовательном процессе ограниченным и менее эффективным по сравнению с самостоятельным поиском.
«Ведущие американские университеты начали системно интегрировать изучение искусственного интеллекта во все образовательные программы. Что сказать? Вредительство чистой воды. Глупость несусветная. На настоящем этапе — это не просто ошибка, это преступление против образования. Дело в чем? ИИ — это очень негибкая штука. Есть разные уровни ИИ. Grok, Perplexity, Deepseek, Chat GPT, наши Алиса, МАХ, Gigachat и так далее. Все их можно разделить на несколько подгрупп», — объясняет Данилин.
Но, по мнению эксперта, курсы по ИИ в вузах должны обучать не только использованию технологий, но и пониманию их ограничений, чтобы избежать ошибок в академической карьере.
«Наши ИИ не справляются со своими задачами — все без исключения. Алгоритмы настроены, может и не «криворукими», но система не обучается так, как это делает тот же Grok, где сидят десятки тысяч человек и вбивают ответы, проверяют, модерируют, улучшают, обучают. Давно сидят — и будут еще долго сидеть, тем самым совершенствуя алгоритмы и мозги. Чуть лучше ситуация с Deepseek, но он галлюцинирует. Самая страшная беда студента, положившегося на такой ИИ — взять и скопировать, не проверив информацию самому. Поумнее сильно Grok и Perplexity. Тоже галлюцинируют, но не так часто. Grok еще лазает по каким-то там закрытым от простых людей базам и вытаскивает информацию оттуда. Может «прошерстить» и соцсети», — подытожил Данилин.
Ранее ИА SM-NEWS сообщило, что введение ИИ приведет к падению профессионализма врачей.