гипотетическое
May. 13th, 2023 12:38 pmЕсть консенсус, что как только мы изобретём AI, он тут же пойдёт по экспоненте в сингулярность.
А если нет? Если это логистическая кривая?
Допустим, через два года у нас будет AI с условным человеко-индексом 70%. Через 4 года - 75%. Через 12 лет - 78%. Через 30 лет мы доползём до 83% и будем иметь эстимейты 85% через 200 лет.
Возможный сценарий? Почему бы и нет? Последствия? Рабочий инструмент без апокалиптических последствий.
А если нет? Если это логистическая кривая?
Допустим, через два года у нас будет AI с условным человеко-индексом 70%. Через 4 года - 75%. Через 12 лет - 78%. Через 30 лет мы доползём до 83% и будем иметь эстимейты 85% через 200 лет.
Возможный сценарий? Почему бы и нет? Последствия? Рабочий инструмент без апокалиптических последствий.
no subject
Date: 2023-05-13 12:26 pm (UTC)Я в скайпе поигрался с LM от MS, неожиданно понравилось. Я задавал писать код на руби для скетчупа - чего сам не умею, но испытываю достаточно острую потребность. Со второй-третьей попытки оно даже попадает, но пока еще проверять-перепроверять-переперепере. И да, как референт по мануалам оно сейчас наиболее адекватно. То-есть, пробежаться по иерархии классов в АПИ и выдать пример приемлемого кода - вот это оно могёт.
no subject
Date: 2023-05-13 02:05 pm (UTC)no subject
Date: 2023-05-14 10:50 am (UTC)Вопрос "стоит ли" странный. Для тебя не стоит, но если ты добавишь квантор всеобщести "не существует человека, которому бы хотелось сделать AI посильнее", то становится понятно, что такой человек существует. Значит, точно будут пытаться. Дальше у нас пачка алармистского футуризма (с примесью утопического футуризма).
А вот я попробовал альтернативную идею: а что, если логистическая кривая? И, допустим, мозг человека на этой логистической кривой уполз на 60к лет эволюции вперёд.
no subject
Date: 2023-05-13 07:39 pm (UTC)Да стоило бы вообще понять, что за штука такая, интеллект. И почему это ГПТ, хоть 3, хоть 4, так ловко врет. Ну сказал бы, мол, ой, не знаю, что такое симплектическая монада или мультифункциональное программирование. Нет, тут же начинает врать, как индус на интервью.
no subject
Date: 2023-05-13 11:37 pm (UTC)no subject
Date: 2023-05-14 06:42 am (UTC)Да конечно. Кто-то же просто не счел бы адекватным такой прибор, что врет постоянно.
no subject
Date: 2023-05-14 10:53 am (UTC)Представь себе прибор, который может указать на ошибочный сигнал в цепи, очень точно (например, "вот тут вот фаза съехала", или "а вот тут фронт сигнала слишком пологий"), но 10% раз. А 90% раз брехать. Будешь использовать? Опыт говорит, что инсайты 1 к 10 всё равно ценные.
А ещё ценно, что когда он врёт, он может врать, но достаточно глубоко в тему, чтобы оставить пищу для размышлений и поиска.
no subject
Date: 2023-05-14 11:31 am (UTC)Я три дня потерял, пытаясь следовать философским советам этого прибора.
no subject
Date: 2023-05-14 06:25 pm (UTC)А я ж недавно писал основной принцип работы с постпанковским 8-balls. Время проверки предложенного решения должно быть меньше времени самостоятельного поиска ответа. Если ты спрашиваешь что-то, что не можешь проверить за условные o(1), значит, тебе сбрехают. Если можешь - 2-3 итерации коррекции запроса, и либо у тебя есть ответ, либо более-менее уверенность, что задача нестандартная (и либо не имеет ответа, либо никто её раньше не решал).
Если не можешь проверить - ты используешь гадалку неправильно.
no subject
Date: 2023-05-15 04:21 am (UTC)no subject
Date: 2023-05-15 10:04 am (UTC)Нет, у меня есть книга Мормонов, с которой я консультируюсь каждый раз, когда мне нужен random.choose().
no subject
Date: 2023-05-14 10:51 am (UTC)У ChatGPT нет совести. Это факт.
Но я не про chatgpt, а про те алармистские AI, которыми пугают.