Эксперт: Нейросети не смогут вытеснить специалистов, чьи ошибки имеют реальную цену
По словам аналитика Глеба Кузнецова, исследователи Anthropic доказали, что скрытые предпочтения ИИ передаются через абстрактные наборы чисел, которые невозможно отследить алгоритмически. Это явление «дистилляции» переносит не прямые знания, а статистическую подпись весов модели-учителя.
«Эксперимент с выдуманной болезнью «биксоманией» показал, как ложная информация (приписанная результатам эксперимента на звездолете «Энтерпрайз») мгновенно проникает в популярные нейросети и научные журналы. Обе истории подтверждают, что проблема ИИ заключается не в простых ошибках, а в глубоком искажении самой природы современного знания», — напоминает Кузнецов.
По словам эксперта, знание бывает двух типов: первый тип знания проверяется реальностью и последствиями, где ошибка эксперта ведет к немедленному провалу дела; второй тип держится лишь на общественном консенсусе и ритуалах, где высказывание служит для легитимации, а не для поиска истины.
«ИИ является идеальной машиной второго типа, которая оптимизирует правдоподобие вместо фактической точности. Поэтому нейросети легко заменят тех, кто не несет прямой ответственности за свои решения, но не смогут вытеснить специалистов, чьи ошибки имеют реальную цену», — подчеркнул Кузнецов.
Ранее ИА SM-NEWS сообщило, что искусственный интеллект способен к взлому банков и самообучению в этой сфере.