TG Telegram Group & Channel
Russian OSINT | United States America (US)
Create: Update:

🧠 Концепция перехода к дополненному коллективному интеллекту (ACI)

В январе 2025 года вышел любопытный препринт Тэлона Нили (который я пропустил), специалиста по искусственному интеллекту из компании Built Simple AI, в котором он представляет гипотезу о теоретической невозможности создания сильного ИИ (AGI).

Ключевой барьер, выявленный в ходе работы с языковой моделью Claude от Anthropic, получил название «проблема избыточности паттернов» (Pattern Overflow Problem). Суть её заключается в том, что любая достаточно развитая система распознавания образов без биологических ограничений неизбежно начинает идентифицировать бесконечное число бессмысленных корреляций, что приводит к каскадному разрушению её базы знаний.

Фундаментальная причина уязвимости кроется в отсутствии у искусственного интеллекта двух критически важных механизмов, присущих человеку:

1️⃣ Первый механизм это эволюционная фильтрация, сформированная за четыре миллиарда лет естественного отбора. Она обеспечивает человека врождёнными фильтрами (распознавание лиц, интуитивное понимание физики) и задаёт жёсткие границы для обучения, делая невозможным усвоение абсурдных концепций, противоречащих нашему эволюционному опыту.

2️⃣ Второй механизм это забывание чего-либо. Данный процесс является не недостатком, а функцией, защищающей нас от переобучения и накопления ошибок. Искусственный интеллект, обладая 🤖идеальной памятью, навсегда сохраняет каждую выявленную корреляцию, в том числе и ложную, что делает его неспособным к эффективной самокоррекции.

В качестве единственно жизнеспособной альтернативы AGI Нили предлагает концепцию дополненного коллективного интеллекта (Augmented Collective Intelligence, ACI). В рамках этой парадигмы ИИ выполняет функцию генератора паттернов и гипотез, а человек применяет свою эволюционно выверенную способность к их фильтрации, отделяя значимые сигналы от информационного шума.

Эффективность такого подхода была подтверждена экспериментально на массиве из 823 000 записей со Stack Overflow. Таким образом, автор приходит к выводу, что после 70 лет бесплодных попыток создать AGI фокус исследований следует сместить с этой недостижимой цели на разработку систем, которые усиливают, а не заменяют человеческий интеллект.

Ещё можно почитать исследования Apple [1,2].

🌎 https://claude.ai/public/artifacts/445500b7-bb6b-4bf3-be9a-0fa4ee64c790

@Russian_OSINT

🧠 Концепция перехода к дополненному коллективному интеллекту (ACI)

В январе 2025 года вышел любопытный препринт Тэлона Нили (который я пропустил), специалиста по искусственному интеллекту из компании Built Simple AI, в котором он представляет гипотезу о теоретической невозможности создания сильного ИИ (AGI).

Ключевой барьер, выявленный в ходе работы с языковой моделью Claude от Anthropic, получил название «проблема избыточности паттернов» (Pattern Overflow Problem). Суть её заключается в том, что любая достаточно развитая система распознавания образов без биологических ограничений неизбежно начинает идентифицировать бесконечное число бессмысленных корреляций, что приводит к каскадному разрушению её базы знаний.

Фундаментальная причина уязвимости кроется в отсутствии у искусственного интеллекта двух критически важных механизмов, присущих человеку:

1️⃣ Первый механизм это эволюционная фильтрация, сформированная за четыре миллиарда лет естественного отбора. Она обеспечивает человека врождёнными фильтрами (распознавание лиц, интуитивное понимание физики) и задаёт жёсткие границы для обучения, делая невозможным усвоение абсурдных концепций, противоречащих нашему эволюционному опыту.

2️⃣ Второй механизм это забывание чего-либо. Данный процесс является не недостатком, а функцией, защищающей нас от переобучения и накопления ошибок. Искусственный интеллект, обладая 🤖идеальной памятью, навсегда сохраняет каждую выявленную корреляцию, в том числе и ложную, что делает его неспособным к эффективной самокоррекции.

В качестве единственно жизнеспособной альтернативы AGI Нили предлагает концепцию дополненного коллективного интеллекта (Augmented Collective Intelligence, ACI). В рамках этой парадигмы ИИ выполняет функцию генератора паттернов и гипотез, а человек применяет свою эволюционно выверенную способность к их фильтрации, отделяя значимые сигналы от информационного шума.

Эффективность такого подхода была подтверждена экспериментально на массиве из 823 000 записей со Stack Overflow. Таким образом, автор приходит к выводу, что после 70 лет бесплодных попыток создать AGI фокус исследований следует сместить с этой недостижимой цели на разработку систем, которые усиливают, а не заменяют человеческий интеллект.

Ещё можно почитать исследования Apple [1,2].

🌎 https://claude.ai/public/artifacts/445500b7-bb6b-4bf3-be9a-0fa4ee64c790

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
3


>>Click here to continue<<

Russian OSINT






Share with your best friend
VIEW MORE

United States America Popular Telegram Group (US)