Проблема не во вранье, а в том, что она сохраняет контекст. https://xkcd.com/1301/ больше не работает. Кстати, оба примера про редьку и румату - слишком поверхностные. Надо глубжее (в смысле примеров).
У меня пара промовых запросов есть, в которых он погружался вопрос глубже, чем я (что обычно отключает часть критического мышления), то есть копал в область, о которой я не знал, и уже там - брехал невероятно.
Я понять не могу - чем пугает-то? Ну т.е. если оно лажает на тривиальных вопросах, пусть оно хоть в самые недра погрузится - оно и там будет лажать. Я понимаю, если-бы оно никогда-никогда обычно не лажала, но очень-очень изредка (допустим в 0.1% ответов) вело себя так, как ведёт сейчас. Т.е. с уверенным видом гнало похожую на правду пургу. Вот тогда это было-бы страшно.
А сейчас - если кто-то что-то делает основываясь на ответах ГПТ, это говорит не о качестве ГПТ, а о разуме делающего.
Потому что есть разы, когда оно говорит правду. Понятно, что привыкнем, но сейчас для меня непривычно, что говорящий (я написал "человек", пришлось исправлять), находящийся в высочайшем контексте, будет брехать. Вся система второстепенных признаков разваливается.
Знаешь кого оно мне напоминает? Студента, с очень хорошо подвешенным языком, который сдаёт экзамен по теме, в которой он плавает. Ну т.е. получается не совсем отсебятина, но иногда можно и откровенную пургу сказать, вдруг не заметят? :)
Пока OpenAI не объявит, что оно несёт финансовую и уголовную ответственность за то, что насоветует их ChatGPT (или пока хотя-бы кто нибудь эту ответственность на себя не возьмёт) относиться к ChatGPT иначе чем к прикольной игрушке - странно.
В том-то и дело, что студента легко поймать на том, что он пытается с высокого контекста увести в общий (низкий). А тут - наоборот, уверенно углубляется, то есть есть ощущение, что знает о чём речь. Контекст отличный, правды нет.
no subject
Date: 2023-03-13 03:13 pm (UTC)Может, может брехать.
Проблема не во вранье, а в том, что она сохраняет контекст. https://xkcd.com/1301/ больше не работает. Кстати, оба примера про редьку и румату - слишком поверхностные. Надо глубжее (в смысле примеров).
У меня пара промовых запросов есть, в которых он погружался вопрос глубже, чем я (что обычно отключает часть критического мышления), то есть копал в область, о которой я не знал, и уже там - брехал невероятно.
Вот это пугает.
no subject
Date: 2023-03-13 03:26 pm (UTC)Ну т.е. если оно лажает на тривиальных вопросах, пусть оно хоть в самые недра погрузится - оно и там будет лажать. Я понимаю, если-бы оно никогда-никогда обычно не лажала, но очень-очень изредка (допустим в 0.1% ответов) вело себя так, как ведёт сейчас. Т.е. с уверенным видом гнало похожую на правду пургу. Вот тогда это было-бы страшно.
А сейчас - если кто-то что-то делает основываясь на ответах ГПТ, это говорит не о качестве ГПТ, а о разуме делающего.
no subject
Date: 2023-03-14 10:18 am (UTC)Потому что есть разы, когда оно говорит правду. Понятно, что привыкнем, но сейчас для меня непривычно, что говорящий (я написал "человек", пришлось исправлять), находящийся в высочайшем контексте, будет брехать. Вся система второстепенных признаков разваливается.
no subject
Date: 2023-03-14 10:32 am (UTC)Пока OpenAI не объявит, что оно несёт финансовую и уголовную ответственность за то, что насоветует их ChatGPT (или пока хотя-бы кто нибудь эту ответственность на себя не возьмёт) относиться к ChatGPT иначе чем к прикольной игрушке - странно.
no subject
Date: 2023-03-14 12:46 pm (UTC)В том-то и дело, что студента легко поймать на том, что он пытается с высокого контекста увести в общий (низкий). А тут - наоборот, уверенно углубляется, то есть есть ощущение, что знает о чём речь. Контекст отличный, правды нет.