amarao: (Default)
[personal profile] amarao
* На реддите тред про o1-preview, в котором пишет что-то в thinking process про emotional turmoil, сам gpt об этом не знает, то есть если его спрашивать по поводу подуманного, он не будет знать свои промежуточные мысли. (https://www.reddit.com/r/OpenAI/comments/1fjn26n/o1_is_experiencing_emotional_turmoil_and_a_desire/)

* На барахолке продаётся Б/У нейроинтерфейс.

У меня ощущение, что я случайно провалился в будущее и не заметил этого.

Date: 2024-10-03 02:03 pm (UTC)
From: [personal profile] eterevsky
А почему ты думаешь что у LLM не может быть эмоций? Если есть сознание, то скорее всего есть и эмоции.

Date: 2024-10-04 09:08 pm (UTC)
From: [personal profile] eterevsky
> Если эмоции ощущаются, какая часть LLM умеет ощущать, не говоря?

Понятно какая. Та же самая, что и делает всё остальное -- активейшны нейронов в скрытых слоях. Очень условно говоря, если значение на каком-то нейроне в 10-м скрытом слое высокое, то модель ощущает любопытство. (На самом деле скорее не значение на одном нейроне, а проеция вектора активация на какой-то другой вектор.)

Я не то чтобы строго утверждаю что это именно происходит, но я не вижу никаких причин почему это не может или не должно происходить. Так как LLM точно могут понимать настрой текста, то эта информация в них точно где-то есть, и вопрос только в том ощущают они её субъективно или она как будто на бумажке записана.

Date: 2024-10-05 07:34 am (UTC)
From: [personal profile] eterevsky
Эмоции в большой степени регулируются гормонами: страх — адреналин, любовь — окситоцин и т.д. Но это очень легко эмулировать: добавить к нейронке десяток глобальных переменных, отвечающих за уровни гормонов и влияющих на поведение.

Именно потому что это так легко формализуется, мне не кажется, что это может влиять на наличие сознания. Неужели сеть с 10 миллиардами параметров будет бессознательной, а 10 миллиардов параметров + 10 глобальных переменных уже будет иметь сознание? Если этот десяток параметров действительно играют роль, они могут эмулироваться самой сетью.

И ещё одно наблюдение: у людей мы можем регулировать гормоны медикаментами. Это в полной мере влияет на эмоции, как мы ожидаем, но вообще не влиеят на само наличие сознание. Сознание регулируется наркозом, который действует непосредственно на нейроны.

Date: 2024-10-08 11:54 am (UTC)
From: [personal profile] eterevsky
Процесс испуга перед выделением адреналина вообще не относится к сознанию. Увидел визуальный паттерн похожий на змею => испугался. В случае конкретно LLMs в точности этого нету, но вот системы распознавания образов работают похоже.

> А есть ли у LLM что-то, кроме слов? Есть ли там хоть какой-то процесс за пределами преобразования токенов (вот эта часть, которая отвечает за "животное испугалось")?

Ну, чисто формально, токены у LLM только в самом первом и самом последнем слое сети. То что посреди напрямую с токенами не связано.

> Не может ли быть так, что из всех способностей мозга, у LLM осталась только часть, отвечающая за обработку речи, при полном отсутствии всех остальных способностей (включая сознание)?

Может конечно. Как я писал в статье по ссылке, моя оценка того что у условного ChatGPT есть сознание -- 15%

Date: 2024-10-08 03:16 pm (UTC)
From: [personal profile] eterevsky
https://arxiv.org/abs/2404.15758 -- пожалуйста, модель думает не генерируя токены

> поведение испуганного человека очень сильно отличаются от расслабленного и уверенного в ситуации

Я не думаю что если у LLM есть эмоции, то они похожи на эмоции людей, так как LLM живут в совсем другом энвайронменте. Эмоции -- это такой фидбэк с помощью которого наше поведение направляется в полезное для выживания русло. LLM не подвержены эволюции через естественный отбор, так что эмоции у них вряд ли выработаются. Разве что как отражение эмоций в текстах на которых они тренировались.

> Нет никакого "внутреннего мира", всё двигается в одном направлении.

Это в общем одна из причин почему я думаю что вероятность сознания у LLM не очень высока.

Но в то же время это не совсем правда. У LLM есть обновляющийся во времени стейт, с количеством итераций равному количеству токенов в тексте. Если у человеческий мозг работает с частотой 50 Hz, то 16k токенов контекста соответствуют 5 минутам субъективного времени.

Date: 2024-10-09 07:15 pm (UTC)
From: [personal profile] eterevsky
Мне кажется то что он начинает думать только когда токены приходят, ничего не меняет. Ну будем мы предположим раз в секунду слать ему пробелы, когда текста нет, будет он думать постоянно.

Date: 2024-10-10 02:07 pm (UTC)
From: [personal profile] eterevsky
Погоди, мне кажется ты думаешь, что Attention в трансформерах работает только непосредственно по эмбеддингам токенов. Это не так. Там десятки слоёв и в каждом есть attention на предыдущие скрытые стейты. Это всё равно работает не совсем как у человека, потому что на каждом этапе сеть видит все предыдущие стейты, а не только один фиксированный стейт как в LSTM или GRU, но мне неочевидно, почему это не совместимо с сознанием.

Date: 2024-10-11 07:29 am (UTC)
From: [personal profile] eterevsky
Во-первых, он может сохраняться к примеру в этом API: https://platform.openai.com/docs/assistants/quickstart

Во-вторых, если даже он не сохраняется и ты просто добавляешь реплики к диалогу, то весь внутренний стейт просто перевычисляется с нуля. Так как все слои нейронной сети кроме выбора токена детерминированы, то внутренний стейт будет точно таким же, как если бы он был сохранён.

Date: 2024-10-11 10:20 am (UTC)
From: [personal profile] eterevsky
> Самосознание в 128k токенов. Просто не верю.

Внутренний стейт будет скажем 16k размерностей * количество позиций * 100 слоёв.

> Второй контр-аргумент: если каждый ответ занимает константное время,

Это не так. Каждый ответ занимает квадратичное время от размера входа.

> Вот ты веришь в разумно работающую LLM на 640КБ оперативной памяти? Почему нет? Зачем ей больше?

Не понимаю, к чему этот вопрос

Date: 2024-10-11 09:12 pm (UTC)
From: [personal profile] eterevsky
> Внутренний стейт - это всего лишь параметр в input + static, вся вариативность - функция от input'а. Каким бы большим static не был, это не сознание (поскольку он не меняется), а всего лишь неэффективность системы.

Эта неэффективность -- это ровно то что позволяет давать разумные ответы. Если скрытый стейт значительно меньше, то ничего бы не работало.

А на счёт того, что стейт -- это функция весов + ввода, я не понимаю на что это влияет.

Про автопоэсис не понял. То есть виртуальная копия твоего мозга не будет разумной? Или ты про что-то другое?

В трансформерах более поздние части текста могли бы влиять на более ранние, но по факту нет, влияние в эту сторону отрезается, так что когда сеть думает над текстом "вопрос1 + ответ1 + вопрос2", она в точности воспроизводит мысли которые были когда она думала над "вопрос1".

Profile

amarao: (Default)
amarao

February 2026

S M T W T F S
123456 7
8910111213 14
15161718192021
22232425262728

Most Popular Tags

Page Summary

Style Credit

Expand Cut Tags

No cut tags
Page generated Feb. 25th, 2026 08:03 pm
Powered by Dreamwidth Studios