amarao: (Default)
[personal profile] amarao
* На реддите тред про o1-preview, в котором пишет что-то в thinking process про emotional turmoil, сам gpt об этом не знает, то есть если его спрашивать по поводу подуманного, он не будет знать свои промежуточные мысли. (https://www.reddit.com/r/OpenAI/comments/1fjn26n/o1_is_experiencing_emotional_turmoil_and_a_desire/)

* На барахолке продаётся Б/У нейроинтерфейс.

У меня ощущение, что я случайно провалился в будущее и не заметил этого.

Date: 2024-09-19 04:34 am (UTC)
sab123: (Default)
From: [personal profile] sab123
Скорее всего какой-нибудь инженер-приколист вставил пасхалку в объяснения, чтоб изредка вылезала.

Date: 2024-09-23 10:05 am (UTC)
From: [personal profile] eterevsky
Я неиронично думаю, что есть нетривиальные шансы что сегодняшние LLM-ы обладают сознанием: https://substack.com/home/post/p-148730734

Date: 2024-09-24 05:31 pm (UTC)
From: [personal profile] eterevsky
Погоди, ты рассматриваешь вопрос о сознании как вопрос определения. Но это ведь неправильно. У нас уже есть понимание того что считать сознанием -- это возможность быть "player character", иметь субъективные ощущения. Это легко проверить в самом себе, но сложно в других существах.

Исключить locked-in patients из понятия "сознания" -- это не вариант потому что они либо имеют внутренний мир, либо нет. Ты не можешь решить это с помощью изменения определения. Более того, из ответа на этот вопрос есть этические следствия по поводу того, что нам с ними делать.

Страдание, на мой взгляд, это свойство исключительно разумных существ. Это субъективное переживание боли и других негативных состояний. Вне сознания его нету. У более примитивных существ могут быть разные рефлексы, но они не подразумевают страдания.

Date: 2024-09-26 05:59 pm (UTC)
From: [personal profile] eterevsky
Ты говоришь фактически следующее: ты знаешь что сам обладаешь сознанием, твоё сознание вызывает определённые виды поведения, ты видишь это поведение в других людях, и из этого заключаешь что у них тоже есть сознание. So far so good. Теперь, если ты видишь животное или locked-in пациента, то у них ты такого поведения не наблюдаешь, и потому не уверен что у них есть сознание. Так?

Тут есть два момента. Первый: представь себе что тебя самого полностью парализовало, оставив тебе только слух. Думаешь ли ты, что ты перестанешь обладать сознанием? Я не думаю, потому что отключение любого из чувств (типа нахождения полной темноте) субъективно не влияет на моё сознание. Если ты думаешь, что у тебя сохранится сознание, то значит и у locked-in пациентов тоже есть сознание (по крайней мере у некоторых).

Второй момент: сознание можно померить на условной энцефалограмме. Вот в этой книге подробно рассказывается про эксперименты с сознанием в нейронауке: https://en.wikipedia.org/wiki/Consciousness_and_the_Brain. В случае locked-in пациентов можно их попросить думать о двух разных вещах чтобы отвечать "да" или "нет" и тем самым можно с ними коммуницировать.

С животными несколько сложнее, так как они отличаются от людей и с ними так просто не поговоришь. Но многие другие тесты сознания с ними можно делать, включая измерение процессов мозгу. В совокупности текущий консенсус состоит в том, что у всех высших млекопитающих сознание точно есть, у птиц скорее всего, а у рыб непонятно.

Date: 2024-10-03 02:03 pm (UTC)
From: [personal profile] eterevsky
А почему ты думаешь что у LLM не может быть эмоций? Если есть сознание, то скорее всего есть и эмоции.

Date: 2024-10-04 09:08 pm (UTC)
From: [personal profile] eterevsky
> Если эмоции ощущаются, какая часть LLM умеет ощущать, не говоря?

Понятно какая. Та же самая, что и делает всё остальное -- активейшны нейронов в скрытых слоях. Очень условно говоря, если значение на каком-то нейроне в 10-м скрытом слое высокое, то модель ощущает любопытство. (На самом деле скорее не значение на одном нейроне, а проеция вектора активация на какой-то другой вектор.)

Я не то чтобы строго утверждаю что это именно происходит, но я не вижу никаких причин почему это не может или не должно происходить. Так как LLM точно могут понимать настрой текста, то эта информация в них точно где-то есть, и вопрос только в том ощущают они её субъективно или она как будто на бумажке записана.

Date: 2024-10-05 07:34 am (UTC)
From: [personal profile] eterevsky
Эмоции в большой степени регулируются гормонами: страх — адреналин, любовь — окситоцин и т.д. Но это очень легко эмулировать: добавить к нейронке десяток глобальных переменных, отвечающих за уровни гормонов и влияющих на поведение.

Именно потому что это так легко формализуется, мне не кажется, что это может влиять на наличие сознания. Неужели сеть с 10 миллиардами параметров будет бессознательной, а 10 миллиардов параметров + 10 глобальных переменных уже будет иметь сознание? Если этот десяток параметров действительно играют роль, они могут эмулироваться самой сетью.

И ещё одно наблюдение: у людей мы можем регулировать гормоны медикаментами. Это в полной мере влияет на эмоции, как мы ожидаем, но вообще не влиеят на само наличие сознание. Сознание регулируется наркозом, который действует непосредственно на нейроны.

Date: 2024-10-08 11:54 am (UTC)
From: [personal profile] eterevsky
Процесс испуга перед выделением адреналина вообще не относится к сознанию. Увидел визуальный паттерн похожий на змею => испугался. В случае конкретно LLMs в точности этого нету, но вот системы распознавания образов работают похоже.

> А есть ли у LLM что-то, кроме слов? Есть ли там хоть какой-то процесс за пределами преобразования токенов (вот эта часть, которая отвечает за "животное испугалось")?

Ну, чисто формально, токены у LLM только в самом первом и самом последнем слое сети. То что посреди напрямую с токенами не связано.

> Не может ли быть так, что из всех способностей мозга, у LLM осталась только часть, отвечающая за обработку речи, при полном отсутствии всех остальных способностей (включая сознание)?

Может конечно. Как я писал в статье по ссылке, моя оценка того что у условного ChatGPT есть сознание -- 15%

Date: 2024-10-08 03:16 pm (UTC)
From: [personal profile] eterevsky
https://arxiv.org/abs/2404.15758 -- пожалуйста, модель думает не генерируя токены

> поведение испуганного человека очень сильно отличаются от расслабленного и уверенного в ситуации

Я не думаю что если у LLM есть эмоции, то они похожи на эмоции людей, так как LLM живут в совсем другом энвайронменте. Эмоции -- это такой фидбэк с помощью которого наше поведение направляется в полезное для выживания русло. LLM не подвержены эволюции через естественный отбор, так что эмоции у них вряд ли выработаются. Разве что как отражение эмоций в текстах на которых они тренировались.

> Нет никакого "внутреннего мира", всё двигается в одном направлении.

Это в общем одна из причин почему я думаю что вероятность сознания у LLM не очень высока.

Но в то же время это не совсем правда. У LLM есть обновляющийся во времени стейт, с количеством итераций равному количеству токенов в тексте. Если у человеческий мозг работает с частотой 50 Hz, то 16k токенов контекста соответствуют 5 минутам субъективного времени.

Date: 2024-10-09 07:15 pm (UTC)
From: [personal profile] eterevsky
Мне кажется то что он начинает думать только когда токены приходят, ничего не меняет. Ну будем мы предположим раз в секунду слать ему пробелы, когда текста нет, будет он думать постоянно.

Date: 2024-10-10 02:07 pm (UTC)
From: [personal profile] eterevsky
Погоди, мне кажется ты думаешь, что Attention в трансформерах работает только непосредственно по эмбеддингам токенов. Это не так. Там десятки слоёв и в каждом есть attention на предыдущие скрытые стейты. Это всё равно работает не совсем как у человека, потому что на каждом этапе сеть видит все предыдущие стейты, а не только один фиксированный стейт как в LSTM или GRU, но мне неочевидно, почему это не совместимо с сознанием.

Date: 2024-10-11 07:29 am (UTC)
From: [personal profile] eterevsky
Во-первых, он может сохраняться к примеру в этом API: https://platform.openai.com/docs/assistants/quickstart

Во-вторых, если даже он не сохраняется и ты просто добавляешь реплики к диалогу, то весь внутренний стейт просто перевычисляется с нуля. Так как все слои нейронной сети кроме выбора токена детерминированы, то внутренний стейт будет точно таким же, как если бы он был сохранён.

Date: 2024-10-11 10:20 am (UTC)
From: [personal profile] eterevsky
> Самосознание в 128k токенов. Просто не верю.

Внутренний стейт будет скажем 16k размерностей * количество позиций * 100 слоёв.

> Второй контр-аргумент: если каждый ответ занимает константное время,

Это не так. Каждый ответ занимает квадратичное время от размера входа.

> Вот ты веришь в разумно работающую LLM на 640КБ оперативной памяти? Почему нет? Зачем ей больше?

Не понимаю, к чему этот вопрос

Date: 2024-10-11 09:12 pm (UTC)
From: [personal profile] eterevsky
> Внутренний стейт - это всего лишь параметр в input + static, вся вариативность - функция от input'а. Каким бы большим static не был, это не сознание (поскольку он не меняется), а всего лишь неэффективность системы.

Эта неэффективность -- это ровно то что позволяет давать разумные ответы. Если скрытый стейт значительно меньше, то ничего бы не работало.

А на счёт того, что стейт -- это функция весов + ввода, я не понимаю на что это влияет.

Про автопоэсис не понял. То есть виртуальная копия твоего мозга не будет разумной? Или ты про что-то другое?

В трансформерах более поздние части текста могли бы влиять на более ранние, но по факту нет, влияние в эту сторону отрезается, так что когда сеть думает над текстом "вопрос1 + ответ1 + вопрос2", она в точности воспроизводит мысли которые были когда она думала над "вопрос1".

Date: 2024-09-24 05:33 pm (UTC)
From: [personal profile] eterevsky
Можешь добавить "CASE 4 in other cases" или что-то в этом духе?

Я не 100% доверяю off-the-shelf LLM'ам потому что они brainwashed с помощью RLHF отвечать и действовать исходя из того, что у них нет сознания.

Profile

amarao: (Default)
amarao

February 2026

S M T W T F S
123456 7
8910111213 14
15161718192021
22232425262728

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Feb. 25th, 2026 02:49 pm
Powered by Dreamwidth Studios