Singularity
Sep. 18th, 2024 05:22 pm* На реддите тред про o1-preview, в котором пишет что-то в thinking process про emotional turmoil, сам gpt об этом не знает, то есть если его спрашивать по поводу подуманного, он не будет знать свои промежуточные мысли. (https://www.reddit.com/r/OpenAI/comments/1fjn26n/o1_is_experiencing_emotional_turmoil_and_a_desire/)
* На барахолке продаётся Б/У нейроинтерфейс.
У меня ощущение, что я случайно провалился в будущее и не заметил этого.
* На барахолке продаётся Б/У нейроинтерфейс.
У меня ощущение, что я случайно провалился в будущее и не заметил этого.
no subject
Date: 2024-10-11 02:24 pm (UTC)... Пожалуй, это второй важный аргумент за сознание: сознание должно меняться. Если мы снова и снова начинаем с одного и того же состояния, то у нас нет признаков жизни.
Почему я требую жизнь как атрибут сознания? Пускай не жизнь, автопоэсис. Нет признаков автопоэсиса.
Насчёт квардратичного времени ответа не знал. А вот тогда вопрос:
Input X -> output X
Input: X + output X + Y -> output Y
В этом случае процесс размышления над X независим или на него Y влияет? Насколько я (плохо) знаю про нейронки, влияет. Тогда получается, ответ на X не может быть воспроизведён в процессе "размышления" на X+Y, То есть "мысли" при "чистом X" потеряны, когда в нейронку отправляют X + output X + Y, она уже о совсем другом "думает".
no subject
Date: 2024-10-11 09:12 pm (UTC)Эта неэффективность -- это ровно то что позволяет давать разумные ответы. Если скрытый стейт значительно меньше, то ничего бы не работало.
А на счёт того, что стейт -- это функция весов + ввода, я не понимаю на что это влияет.
Про автопоэсис не понял. То есть виртуальная копия твоего мозга не будет разумной? Или ты про что-то другое?
В трансформерах более поздние части текста могли бы влиять на более ранние, но по факту нет, влияние в эту сторону отрезается, так что когда сеть думает над текстом "вопрос1 + ответ1 + вопрос2", она в точности воспроизводит мысли которые были когда она думала над "вопрос1".