Всё-таки меня онтологически штырит от происходящего. Уровень контекста, который сохраняется в ответе, не позволяет отмахнуться от "это просто автокомплит на стероидах".
Всё, что раньше читалось в фантастике и в философских теоретических работах, теперь звучит очень прагматично. Целые классы абстрактных рассуждений внезапно получили невероятную конкретность.
Китайская комната: https://ru.wikipedia.org/wiki/%D0%9A%D0%B8%D1%82%D0%B0%D0%B9%D1%81%D0%BA%D0%B0%D1%8F_%D0%BA%D0%BE%D0%BC%D0%BD%D0%B0%D1%82%D0%B0
Permutation City: https://fantlab.ru/work49736
его же "Диаспора"
... Пожалуй, самый холодок по спине идёт при флешбэках из Permutation City/Diaspora. Его наблюдение за "коврами" и самим собой, как исполнителем чужой тьюринг-полной программы, которая и есть сознание, это же просто безумие, и после появления всех этих chat*pt - от него нельзя уже отмахнуться.
Там же разделяют сознание: чужое, и само-сознание - ощущение своего сознания. Самосознание невозможно обнаружить (у других), можно обнаружить сознание.
Chatgpt уже с лёгкостью показывает "сознание", есть ли у него самосознание? А мы не можем это обнаружить, потому что снаружи нам видно только сознание, и что нам теперь делать?
Я не беспокоюсь за "душевные переживания" нейронки, я беспокоюсь за наше понимание "душевных переживаний". В какой момент имитация становится не имитацией?
Всё, что раньше читалось в фантастике и в философских теоретических работах, теперь звучит очень прагматично. Целые классы абстрактных рассуждений внезапно получили невероятную конкретность.
Китайская комната: https://ru.wikipedia.org/wiki/%D0%9A%D0%B8%D1%82%D0%B0%D0%B9%D1%81%D0%BA%D0%B0%D1%8F_%D0%BA%D0%BE%D0%BC%D0%BD%D0%B0%D1%82%D0%B0
Permutation City: https://fantlab.ru/work49736
его же "Диаспора"
... Пожалуй, самый холодок по спине идёт при флешбэках из Permutation City/Diaspora. Его наблюдение за "коврами" и самим собой, как исполнителем чужой тьюринг-полной программы, которая и есть сознание, это же просто безумие, и после появления всех этих chat*pt - от него нельзя уже отмахнуться.
Там же разделяют сознание: чужое, и само-сознание - ощущение своего сознания. Самосознание невозможно обнаружить (у других), можно обнаружить сознание.
Chatgpt уже с лёгкостью показывает "сознание", есть ли у него самосознание? А мы не можем это обнаружить, потому что снаружи нам видно только сознание, и что нам теперь делать?
Я не беспокоюсь за "душевные переживания" нейронки, я беспокоюсь за наше понимание "душевных переживаний". В какой момент имитация становится не имитацией?
no subject
Date: 2023-03-13 07:51 am (UTC)TLDR: inconclusive, но скорее нет, чем да.
no subject
Date: 2023-03-13 01:14 pm (UTC)Мы только что видели зависание chatgpt на просьбе показать последние три цифры pi. После зависания стала нести ахинею.
То же самое с akkerman (3,3). Оно даже пытается рассуждать, но в конце теряется.
В целом, у меня ощущение, что к машине Тьюринга добавили ещё одно мета-состояние: сбрехать. И все парадоксы тут же разрешились, потому что если машине разрешают иногда брехать, она вывернется из любой проблемы.
no subject
Date: 2023-04-06 10:46 am (UTC)Я не слоупок, но я долго думал, насчёт тезиса об итеративности мышления. Мне кажется, в этом есть большая важная особенность мышления, которую даже стараются подчеркнуть в доказательствах: сначала идёт сложная мыслительная работа, в ходе которой образуется одна (проверенная) новая идея (вывод из старой), а потом эта идея уже используется как атом (лемма) в следующей итерации. В отличие от обычных "функций в программировании" при рассуждении о конкретном вопросе всё равно в бэкграунде есть основная проблема (глобальный стейт).
Может быть, если бы чатгпт могла сама себе задать вопросы о высказанном и поправить ответ в соответствии с ответами на эти вопросы, то результат был бы круче.
... Но тут нужно иметь совесть или его аналог, а у chatgpt его нет.