В январе 2025 года вышел любопытный препринт Тэлона Нили (который я пропустил), специалиста по искусственному интеллекту из компании Built Simple AI, в котором он представляет гипотезу о теоретической невозможности создания сильного ИИ (AGI).
Ключевой барьер, выявленный в ходе работы с языковой моделью Claude от Anthropic, получил название «проблема избыточности паттернов» (Pattern Overflow Problem). Суть её заключается в том, что любая достаточно развитая система распознавания образов без биологических ограничений неизбежно начинает идентифицировать бесконечное число бессмысленных корреляций, что приводит к каскадному разрушению её базы знаний.
Фундаментальная причина уязвимости кроется в отсутствии у искусственного интеллекта двух критически важных механизмов, присущих человеку:
1️⃣ Первый механизм это эволюционная фильтрация, сформированная за четыре миллиарда лет естественного отбора. Она обеспечивает человека врождёнными фильтрами (распознавание лиц, интуитивное понимание физики) и задаёт жёсткие границы для обучения, делая невозможным усвоение абсурдных концепций, противоречащих нашему эволюционному опыту.
2️⃣ Второй механизм это забывание чего-либо. Данный процесс является не недостатком, а функцией, защищающей нас от переобучения и накопления ошибок. Искусственный интеллект, обладая
В качестве единственно жизнеспособной альтернативы AGI Нили предлагает концепцию дополненного коллективного интеллекта (Augmented Collective Intelligence, ACI). В рамках этой парадигмы ИИ выполняет функцию генератора паттернов и гипотез, а человек применяет свою эволюционно выверенную способность к их фильтрации, отделяя значимые сигналы от информационного шума.
Эффективность такого подхода была подтверждена экспериментально на массиве из 823 000 записей со Stack Overflow. Таким образом, автор приходит к выводу, что после 70 лет бесплодных попыток создать AGI фокус исследований следует сместить с этой недостижимой цели на разработку систем, которые усиливают, а не заменяют человеческий интеллект.
Ещё можно почитать исследования Apple [1,2].
>>Click here to continue<<
