Данилин: Проверка ИИ ученым пока занимает больше времени, чем самостоятельный анализ
Использование ИИ в подготовке аналитики и научных работ сопряжено с рядом рисков, связанных с «галлюцинациями» и другими проблемами. Галлюцинации ИИ — это генерация вымышленных или недостоверных данных, которые модель представляет как факты. Эта проблема возникает из-за особенностей архитектуры языковых моделей, которые предсказывают слова на основе статистических закономерностей, а не глубокого понимания контекста. Математические исследования показывают, что галлюцинации являются фундаментальной проблемой, которая сохраняется даже при идеальном наборе тренировочных данных. В научных работах это может привести к распространению ложных утверждений, ошибочных ссылок или искажению данных, что подрывает достоверность исследований.
«В своей работе аналитика я ежедневно сталкиваюсь с искусственным интеллектом и делаю выводы о его возможностях. Несмотря на то что искусственный интеллект может синтезировать информацию и предлагать решения, он не способен на полноценный анализ, ограничиваясь лишь следованием существующим паттернам», — констатирует политолог Павел Данилин.
Непрозрачность алгоритмов затрудняет проверку корректности решений ИИ. Поскольку модели часто работают как «черные ящики», сложно отследить, на каких данных и принципах основаны их выводы. Это особенно критично в науке, где воспроизводимость результатов — ключевой критерий достоверности. Исследования показывают, что ни одна публикация, использующая ИИ, не содержит достаточно информации для точного воспроизведения эксперимента. Такая ситуация усложняет верификацию и повышает риск ошибок, которые могут остаться незамеченными. Зависимость от ИИ может привести к атрофии критического мышления у исследователей. Если ученые слишком полагаются на модели, они могут упустить контекст, не заметить ошибок или не проверить первоисточники. Это особенно опасно в сложных или узкоспециализированных областях, где требуется глубокое понимание предмета.
«Искусственный интеллект может быть полезен для подбора черновой информации и нахождения ответов на тривиальные вопросы, однако его ответы часто оказываются поверхностными и могут содержать ошибки. В результате, если вы работаете над серьезным анализом для заказчика или научной работы, проверка информации, предоставленной ИИ, может занять больше времени, чем самостоятельный анализ», — подытожил Данилин.
Ранее ИА SM-NEWS сообщило, что Казань подтверждает свой статус инновационного полигона, задействуя дроны даже в сфере ЖКХ.