гипотетическое
May. 13th, 2023 12:38 pmЕсть консенсус, что как только мы изобретём AI, он тут же пойдёт по экспоненте в сингулярность.
А если нет? Если это логистическая кривая?
Допустим, через два года у нас будет AI с условным человеко-индексом 70%. Через 4 года - 75%. Через 12 лет - 78%. Через 30 лет мы доползём до 83% и будем иметь эстимейты 85% через 200 лет.
Возможный сценарий? Почему бы и нет? Последствия? Рабочий инструмент без апокалиптических последствий.
А если нет? Если это логистическая кривая?
Допустим, через два года у нас будет AI с условным человеко-индексом 70%. Через 4 года - 75%. Через 12 лет - 78%. Через 30 лет мы доползём до 83% и будем иметь эстимейты 85% через 200 лет.
Возможный сценарий? Почему бы и нет? Последствия? Рабочий инструмент без апокалиптических последствий.
no subject
Date: 2023-05-14 10:50 am (UTC)Вопрос "стоит ли" странный. Для тебя не стоит, но если ты добавишь квантор всеобщести "не существует человека, которому бы хотелось сделать AI посильнее", то становится понятно, что такой человек существует. Значит, точно будут пытаться. Дальше у нас пачка алармистского футуризма (с примесью утопического футуризма).
А вот я попробовал альтернативную идею: а что, если логистическая кривая? И, допустим, мозг человека на этой логистической кривой уполз на 60к лет эволюции вперёд.