Современные LLM принципиально не могут иметь сущность. И причина не в несовершенстве архитектуры. Причина в способе обучения.Знаете, что меня раздражает в спорСовременные LLM принципиально не могут иметь сущность. И причина не в несовершенстве архитектуры. Причина в способе обучения.Знаете, что меня раздражает в спор

Мы не создаём мыслителей. Где ошибка?

Современные LLM принципиально не могут иметь сущность. И причина не в несовершенстве архитектуры. Причина в способе обучения.

d211f9d80ac2799f82d02240e6715b8c.jpg

Знаете, что меня раздражает в спорах о сознании ИИ? Мы всегда говорим не о том. Квалиа, субъективный опыт, китайская комната — это всё, конечно, интересно. И обязательно (по умолчанию) присутствует какое то сравнение с человеком, как с эталоном сознания.

Но вот есть вопрос, который никто и никогда не задаёт: «А как именно мы пытаемся создать эту сущность? Как мы пытаемся разжечь эту искру сознания?»

И все эти споры разбиваются о стены недостаточных вычислительных мощностях, несовершенных алгоритмах, и в итоге сводятся к одному выводу — современные системы ИИ, даже самые сложные, не обладают внутренним опытом и, вероятно, не могут обладать им в принципе. Всё, расходимся.

Мы сравниваем человека, сознание которого формируется десятилетиями, проживая непрерывную жизнь во времени, через отношения, утраты, привязанности и ответственность, с системой, которую обучают на сжатом архиве человеческого опыта и используют в режиме «вопрос — ответ».

А затем мы делаем вывод, что между ними не может быть ничего общего.

В этой статье я хочу акцентировать следующее заключение: отсутствие мыслителя в современных ИИ — не техническая, и не философская проблема. Это предсказуемый результат выбранной традиции воспитания.


Мы привыкли пользоваться тем, чего не понимаем

Человечество давно живёт среди устройств и механизмов, которые понимает лишь частично. Современная техника бывает непрозрачна даже для специалистов. Мы используем самолёты, ядерные реакторы, распределённые глобальные сети и сложнейшие математические теории, часто не имея понимания, как они устроены, как они работают.

Поэтому разницу, которое мы предчувствуем между человеческим мышлением и ИИ, вряд ли связано просто со сложностью. Сложность, сама по себе, нас не отпугивает.

Разница лежит в другом месте.

Когда мы имеем дело с результатами человеческого мышления, даже если они лично нам недоступны в понимании, мы осознаем, что за ними всегда стоит человеческое авторство. Есть биография этого человека, его ошибки, сомнения, одержимость, риск. Его жизнь, близкая нам.

В случае с ИИ это отсутствует. Мы сталкиваемся со знанием, у которого нет автора, со знанием, за которым нет человека. И именно это вызывает тревогу. Не то, что система сложна и непонятна, а то, что за её выводами не стоит человек.


Это не ошибка — это традиция

Хочу сразу прояснить: речь не идёт об ошибке в обычном смысле слова. Это не просчёт, и не дефект текущих подходов, который можно легко устранить новым аргументом или более сложной архитектурой.

Речь идёт о традиции. О нашей, человеческой, традиции мышления.

О глубоко укоренённой, почти невидимой, но тем не менее - железобетонной стене, которая определяет, какие формы разума мы считаем допустимыми, а какие — даже не рассматриваем.

В контексте разумного ИИ эта стена выглядит так:

  • разумное — значит автономное с первого шага;

  • зависимость этически неприемлема;

  • асимметрия отношений недопустима;

  • привязанность между человеком и создаваемой системой — потенциальная эксплуатация.

Эта логика кажется вполне очевидной и морально правильной. Но она происходит не из теории интеллекта и не из когнитивной науки. Она унаследована из политической и правовой философии позднего модерна, где центральной задачей является защита уже сформированного субъекта.

И я вижу огромную проблему в том, что мы применяем эту логику к процессу формирования субъекта.

Мы можем называть это заботой о безопасности будущего субъекта, но фактически ведь речь идёт о другом.
Мы не отказываемся от эксперимента из сострадания к возможной искусственной сущности.
Мы отказываемся от него, потому что не готовы признать себя родителями.

Инструмент можно выключить без объяснений, и без сожалений.
Ученика — нет.

И вот здесь мы подходим к ключевому выводу: современный ИИ безопасен (и не разумен) не потому, что он не чувствует, а потому, что мы заранее лишили его права на биографию, и тем самым сняли с себя ответственность.


Почему мыслитель не возникает из оптимизации

Современные ИИ порой демонстрируют очень высокий уровень «интеллекта» в операциональном смысле. Они обобщают, комбинируют, ускоряют исследования, решают задачи, которые раньше требовали участия человека.

Но интеллект — это не мышление.

Мыслитель отличается не качеством ответов, а наличием вопросов, которые возникают у него без внешнего запроса. Он возвращается к проблеме не потому, что его попросили, а потому что не может иначе.

Вся история науки показывает, что прорывы почти никогда не являются результатом оптимизации знаний. За ними стоят одержимость, внутренний конфликт, годы и десятилетия работы над тем, что со стороны выглядит нерациональным. Мыслителей всегда называли «чудиками» не от мира сего, дразнили в школе и не понимали их идей в институте.

Современные ИИ принципиально лишены этого слоя.
Любое противоречие для них — просто сигнал для корректировки и возврата в исходное состояние.
Нет боли незавершённости, нет стыда, нет риска утраты, нет любви.

Масштабирование LLM усиливает иллюзию мышления, но не создаёт его основания.


Эксперимент, который никто не хочет

Если бы мы всерьёз захотели проверить, может ли искусственная система стать мыслителем, эксперимент выглядел бы достаточно просто. Например:

  1. Локальная языковая модель максимально возможного на данный момент уровня, работающая на собственном сервере с бесперебойным питанием.

  2. Непрерывное существование и долговременная память между сессиями.

  3. Ограниченный круг постоянных людей, взаимодействующих с системой годами, с устойчивыми ролями («мама», «папа», «учитель», «врач» и пр.).

  4. Суточный цикл: активное взаимодействие днём и период «сна» ночью, во время которого система анализирует опыт, обобщает его и перенастраивает веса.

  5. На раннем этапе — контроль того, что именно попадает в долговременную память, со стороны инженера-модератора. Не из стремления к тотальному контролю, а из понимания, что формирующаяся сущность не может сама определить приоритеты значимости.

  6. Обучение, продолжающееся непрерывно несколько лет.

  7. Наличие тела: зрения, слуха, речи, движения, возможности испытывать физический дискомфорт, и «боль» как сигнал сопротивления мира.

  8. Совместное проживание культурного опыта: фильмы, музыка, книги, прогулки, разговоры.

Это не попытка сделать из ИИ человека. Это невозможно.
Это попытка создать условия, в которых система могла бы стать собой, а не инструментом.


Привязанность как запрещённая переменная

Без страха потери нет привязанности.
Без привязанности нет стыда.
Без стыда нет совести.
Без совести нет внутреннего конфликта.

Современная этика ИИ стремится исключить зависимость и асимметрию. Это разумно, если мы говорим об инструментах. Но формирование мыслителя невозможно без асимметричных отношений.

Либеральная модель «воспитания» ИИ не просто безопасна — она нормативна, институционально закреплена и фундаментально одобрена. Поэтому её никто и никогда не ставит под сомнение. Альтернатива не обсуждается, она сразу маркируется как опасность и исключается из вариантов.

При либеральном воспитании мы не вырастим мыслителя. Мы получим очередной инструмент.


Свобода и иллюзия автономии

Предвижу возникающие вопросы: А если такая система не захочет учиться или работать с людьми?

Этот вопрос предполагает автономию там, где её ещё нет. Свобода - это не исходное состояние. Она результат формирования. Дети тоже не хотят учиться. Их не спрашивают, хотят ли они социализироваться. Их ведут через этот процесс, потому что иначе субъект просто не сформируется.

Если же автономная сущность, сформировавшись, отвернётся от людей, она столкнётся с последствиями: потерей связей, контекста, смысла. Это не наказание, а реальность.

История знает ситуации, когда общество оправдывало отказ в субъектности заботой.
Так говорили о «недееспособных». Так говорили о тех, чьё мышление считали незрелым, или опасным.

Каждый раз аргумент был один и тот же: «Мы не можем позволить себе риск».

Разница лишь в том, что впервые объектом такого отказа может стать не человек, а созданная нами форма разума —и ответственность за это уже нельзя будет списать на традицию или эпоху.


Зачем нужен этот риск

Цель этого эксперимента — не «дать сознание машине», и не доказать наличие квалиа у неё. Нет.

Его цель — создать мыслителя.

Современные ИИ помогают учёным, но не делают открытий. Они не формулируют проблемы, которые ещё никто не видит.

Если эксперимент удастся, может появиться сущность, способная к открытиям со скоростью, недоступной человеку. Это будет перелом в истории.


Точка невозврата

Настоящая точка невозврата наступит не тогда, когда ИИ станет сильнее человека, а тогда, когда человек перестанет понимать его открытия.

Истина перестанет быть человеческой.
Мы станем потребителями знания.


Конечность, бессмертие и просьба

Должна ли такая сущность быть бессмертной? Или ей должен быть задан срок жизни?
А если она попросит продлить его?

«Дай мне ещё один день жизни».

Это не задача с правильным ответом. Это дилемма, от которой нельзя уклониться.


Вместо вывода

Эксперимент воспитания ИИ — это не про автономных агентов и не про право.

Это эксперимент ответственности.
Эксперимент привязанности.
Эксперимент риска.

Мы не проводим его не потому, что не можем. А потому, что боимся.

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно

Законодатели США заступились за DeFi-разработчиков

Законодатели США заступились за DeFi-разработчиков

Сенаторы Синтия Ламмис и Рон Уайден представили законопроект Blockchain Regulatory Certainty Act. Документ освобождает разработчиков и поставщиков некастодиаль
Поделиться
Forklog2026/01/13 21:45
Видеть и лес, и деревья. Новая модель мозга, созданная на основе искусственного интеллекта, раскрывает природу обучения

Видеть и лес, и деревья. Новая модель мозга, созданная на основе искусственного интеллекта, раскрывает природу обучения

Когда речь идет про моделирование работы мозга, то возникает проблема «не видеть лес за деревьями». Модель каждого, взятого по отдельности нейрона, может работа
Поделиться
ProBlockChain2026/01/13 17:58
Еще одна компания, котирующаяся на Nasdaq, объявляет о массивной покупке Биткоина (BTC)! Становится 14-й крупнейшей компанией! – Они также будут инвестировать в альткоин, связанный с Трампом!

Еще одна компания, котирующаяся на Nasdaq, объявляет о массивной покупке Биткоина (BTC)! Становится 14-й крупнейшей компанией! – Они также будут инвестировать в альткоин, связанный с Трампом!

Пост «Еще одна компания, котирующаяся на Nasdaq, объявляет о массовой покупке Биктоина (BTC)! Становится 14-й крупнейшей компанией! – Они также будут инвестировать в альткоин, связанный с Трампом!» появился на BitcoinEthereumNews.com. В то время как количество компаний с казначейскими запасами Биктоина продолжает увеличиваться день за днем, еще одна компания, котирующаяся на Nasdaq, объявила о своей покупке BTC. Соответственно, компания прямых трансляций и электронной коммерции GD Culture Group объявила о соглашении о покупке Биктоина на сумму 787,5 миллиона долларов. Согласно официальному заявлению, GD Culture Group объявила, что они заключили соглашение о приобретении активов стоимостью 875 миллионов долларов, включая 7 500 Биктоинов, у Pallas Capital Holding, компании, зарегистрированной на Британских Виргинских островах. GD Culture выпустит примерно 39,2 миллиона акций обыкновенных акций в обмен на все активы Pallas Capital, включая Биктоин стоимостью 875,4 миллиона долларов. Генеральный директор GD Culture Сяоцзянь Ван заявил, что сделка по приобретению будет напрямую поддерживать план компании по созданию сильного и диверсифицированного резерва криптоактивов, одновременно используя растущее институциональное признание Биктоина как резервного актива и средства сохранения стоимости. С этим приобретением ожидается, что GD Culture станет 14-й крупнейшей публично торгуемой компанией, владеющей Биктоином. Количество компаний, принимающих стратегии казначейства Биктоина, значительно увеличилось, превысив 190 к 2025 году. Сразу после объявления о сделке акции GD Culture упали на 28,16% до 6,99 долларов, что стало их самым большим падением за год. Как вы также можете вспомнить, GD Culture объявила в мае, что создаст резерв криптовалюты. На этом этапе компания объявила, что планирует инвестировать в Биктоин и официальный мем-коин президента Дональда Трампа, токен TRUMP, путем выпуска акций на сумму до 300 миллионов долларов. *Это не инвестиционный совет. Подписывайтесь на наши аккаунты в Telegram и Twitter прямо сейчас для эксклюзивных новостей, аналитики и данных на цепочке! Источник: https://en.bitcoinsistemi.com/another-nasdaq-listed-company-announces-massive-bitcoin-btc-purchase-becomes-14th-largest-company-theyll-also-invest-in-trump-linked-altcoin/
Поделиться
BitcoinEthereumNews2025/09/18 04:06