amarao: (Default)
[personal profile] amarao
* На реддите тред про o1-preview, в котором пишет что-то в thinking process про emotional turmoil, сам gpt об этом не знает, то есть если его спрашивать по поводу подуманного, он не будет знать свои промежуточные мысли. (https://www.reddit.com/r/OpenAI/comments/1fjn26n/o1_is_experiencing_emotional_turmoil_and_a_desire/)

* На барахолке продаётся Б/У нейроинтерфейс.

У меня ощущение, что я случайно провалился в будущее и не заметил этого.

Date: 2024-10-08 11:54 am (UTC)
From: [personal profile] eterevsky
Процесс испуга перед выделением адреналина вообще не относится к сознанию. Увидел визуальный паттерн похожий на змею => испугался. В случае конкретно LLMs в точности этого нету, но вот системы распознавания образов работают похоже.

> А есть ли у LLM что-то, кроме слов? Есть ли там хоть какой-то процесс за пределами преобразования токенов (вот эта часть, которая отвечает за "животное испугалось")?

Ну, чисто формально, токены у LLM только в самом первом и самом последнем слое сети. То что посреди напрямую с токенами не связано.

> Не может ли быть так, что из всех способностей мозга, у LLM осталась только часть, отвечающая за обработку речи, при полном отсутствии всех остальных способностей (включая сознание)?

Может конечно. Как я писал в статье по ссылке, моя оценка того что у условного ChatGPT есть сознание -- 15%

Date: 2024-10-08 03:16 pm (UTC)
From: [personal profile] eterevsky
https://arxiv.org/abs/2404.15758 -- пожалуйста, модель думает не генерируя токены

> поведение испуганного человека очень сильно отличаются от расслабленного и уверенного в ситуации

Я не думаю что если у LLM есть эмоции, то они похожи на эмоции людей, так как LLM живут в совсем другом энвайронменте. Эмоции -- это такой фидбэк с помощью которого наше поведение направляется в полезное для выживания русло. LLM не подвержены эволюции через естественный отбор, так что эмоции у них вряд ли выработаются. Разве что как отражение эмоций в текстах на которых они тренировались.

> Нет никакого "внутреннего мира", всё двигается в одном направлении.

Это в общем одна из причин почему я думаю что вероятность сознания у LLM не очень высока.

Но в то же время это не совсем правда. У LLM есть обновляющийся во времени стейт, с количеством итераций равному количеству токенов в тексте. Если у человеческий мозг работает с частотой 50 Hz, то 16k токенов контекста соответствуют 5 минутам субъективного времени.

Date: 2024-10-09 07:15 pm (UTC)
From: [personal profile] eterevsky
Мне кажется то что он начинает думать только когда токены приходят, ничего не меняет. Ну будем мы предположим раз в секунду слать ему пробелы, когда текста нет, будет он думать постоянно.

Date: 2024-10-10 02:07 pm (UTC)
From: [personal profile] eterevsky
Погоди, мне кажется ты думаешь, что Attention в трансформерах работает только непосредственно по эмбеддингам токенов. Это не так. Там десятки слоёв и в каждом есть attention на предыдущие скрытые стейты. Это всё равно работает не совсем как у человека, потому что на каждом этапе сеть видит все предыдущие стейты, а не только один фиксированный стейт как в LSTM или GRU, но мне неочевидно, почему это не совместимо с сознанием.

Date: 2024-10-11 07:29 am (UTC)
From: [personal profile] eterevsky
Во-первых, он может сохраняться к примеру в этом API: https://platform.openai.com/docs/assistants/quickstart

Во-вторых, если даже он не сохраняется и ты просто добавляешь реплики к диалогу, то весь внутренний стейт просто перевычисляется с нуля. Так как все слои нейронной сети кроме выбора токена детерминированы, то внутренний стейт будет точно таким же, как если бы он был сохранён.

Date: 2024-10-11 10:20 am (UTC)
From: [personal profile] eterevsky
> Самосознание в 128k токенов. Просто не верю.

Внутренний стейт будет скажем 16k размерностей * количество позиций * 100 слоёв.

> Второй контр-аргумент: если каждый ответ занимает константное время,

Это не так. Каждый ответ занимает квадратичное время от размера входа.

> Вот ты веришь в разумно работающую LLM на 640КБ оперативной памяти? Почему нет? Зачем ей больше?

Не понимаю, к чему этот вопрос

Date: 2024-10-11 09:12 pm (UTC)
From: [personal profile] eterevsky
> Внутренний стейт - это всего лишь параметр в input + static, вся вариативность - функция от input'а. Каким бы большим static не был, это не сознание (поскольку он не меняется), а всего лишь неэффективность системы.

Эта неэффективность -- это ровно то что позволяет давать разумные ответы. Если скрытый стейт значительно меньше, то ничего бы не работало.

А на счёт того, что стейт -- это функция весов + ввода, я не понимаю на что это влияет.

Про автопоэсис не понял. То есть виртуальная копия твоего мозга не будет разумной? Или ты про что-то другое?

В трансформерах более поздние части текста могли бы влиять на более ранние, но по факту нет, влияние в эту сторону отрезается, так что когда сеть думает над текстом "вопрос1 + ответ1 + вопрос2", она в точности воспроизводит мысли которые были когда она думала над "вопрос1".

Profile

amarao: (Default)
amarao

February 2026

S M T W T F S
123456 7
8910111213 14
15161718192021
22232425262728

Most Popular Tags

Page Summary

Style Credit

Expand Cut Tags

No cut tags
Page generated Feb. 25th, 2026 08:03 pm
Powered by Dreamwidth Studios