Вы здесь

Ошибка обобщения на основе вымышленного свидетельства

Элиезер Юдковский

Когда я пытаюсь познакомить человека с концепцией продвинутого ИИ, что я слышу в первую очередь в более чем половине случаев?

«А, это как в Терминаторе/Матрице/у Азимова!»

И я отвечаю, «Э, нет, не совсем. Я склонен избегать логического заблуждения обобщения на основе выдуманного свидетельства».

Некоторые люди понимают сразу и смеются. Другие начинают защищать свое право на использование таких примеров, отрицая, что это заблуждение.

Что плохого в использовании кино или книг как исходной точки обсуждения? В конце концов, никто ведь и не говорит, что это истина. Где же ложь, в чем здесь грех рационалиста? Научная фантастика представляет собой попытку автора представить будущее; почему бы не воспользоваться плодами уже сделанных размышлений, вместо того, чтобы начинать заново?

Не каждый неверный шаг в точном танце рациональности заключается в явно видимом убеждении в чем-то ложном; есть менее заметные пути ошибаться.

Сначала давайте предположим, что научная фантастика представляет собой полноценную рациональную попытку предсказать будущее. Даже наиболее добросовестные писатели в первую очередь повествователи; требования к повествованию непохожи на требования к прогнозированию. Как отметил Ник Бостром1:

Когда в последний раз вы видели фильм о том, как человечество внезапно вымирает (без предупреждения и без того, чтобы его кто-то заменил)? А ведь такой сценарий может быть куда вероятнее, чем сценарий где люди-герои успешно отражают вторжение монстров или роботов, хотя он намного скучнее.

Художественная литература имеет свои специфические искажения. Но попытки исправить их недостаточно. Повествование никогда не является рациональной попыткой анализа, даже у лучших фантастов, поскольку истории не используют распределения вероятностей. Я покажу это так:

Боб Меркельфуд с опаской проскользнул в дверь инопланетного звездолета, поглядывая направо и налево (или наоборот) на предмет того, не остались ли где-то ужасные Космические Монстры. У него было только одно оружие, которые было эффективно против них, Космический Меч, который с 30% вероятностью состоял из чистого титана, 20% — обычного железа, 45% — таинственных черных дисков, найденных на развалинах Стоунхеджа и 5% других возможных результатов, слишком незначительных, чтобы их перечислять.

Меркельфуд (хотя был значительный шанс, что на самом деле там была Сьюзан Виффлифуфер) сделал два шага вперед и отпрыгнул назад, когда громкий рев разорвал тишину темного шлюза! Или тихий фоновый гул светлого шлюза! Хотя Амфер и Вуфи (1997) доказали, что Меркельфуд был съеден в тот момент, Споклабакл (2003) указывает на то, что…»

Персонажи могут быть невежественны, однако автор не может сказать три волшебных слова «я не знаю». Протагонист должен следовать единой линии событий в будущее, полной подробностей и окружения истории, от возможной будущей точки зрения Виффлифуфер по поводу феминизма, до цвета ее серег.

Потом все эти обременительные детали и сомнительные предположения упаковываются и получают короткий ярлык, создавая иллюзию, что они являются единым пакетом.

С проблемами, у которых большое пространство ответов, наибольшая трудность не проверка верного ответа, но просто поиск, где именно начать поиск в этом пространстве. Если кто-либо начинает с вопросов о том, будет ли ИИ помещать нас в капсулы как в «Матрице», они сразу начинают со 100-битового предположения, без подтверждения 98 бит свидетельства для определения этого в пространстве ответов как возможности стоящей точного обсуждения. Об этом стоит беспокоиться только после того как первые 98 бит будут подтверждены до почти определенности, что скажет вам, где следует проводить всю работу.

«Предварительный» шаг определения возможностей, стоящих точного обсуждения включает в себя шаги вида: взвешивание того, что вы знаете и не знаете, что вы можете предсказать и чего не можете, приложение сознательных усилий для избегания искажения абсурдности и широких интервалов подтверждения , обдумать, какие вопросы наиболее важны, пытаясь не упустить возможных «черных лебедей» и подумать (заблаговременно) о неизвестном неизвестном. Преждевременный переход к «Матрица: да или нет?» пропускает все это.

Любой профессиональный переговорщик знает, что управляя определениями можно практически предрешить исход дискуссии. Если вы начали с размышлений о Матрице, то в вашей голове станут возникать образы марширующих армий роботов, с трудом побеждающих людей — а не образ суперинтеллекта, похрустывающего нанотехнологическими пальцами. Такая постановка вопроса заставляет фокусироваться на «Мы против них», переводя потом внимание на вопросы типа «Кто победит?», «Кто должен победить?», «ИИ на самом деле будет такой?» Это создает общую атмосферу зрелищности, типа «Каково твое удивительное видение будущего?»

Позабытыми в гулкой пустоте являются: рассмотрения, что возможно более одного варианта реализации ИИ; зависимость будущего от начальных условий; сила интеллекта, превосходящего человеческий, и аргумент его непредсказуемости; есть люди, которые принимают риски всерьез и стараются предотвратить их.

Если определенные нечестные спорщики хотят, чтобы люди пришли к нужному им выводу, и начинают обсуждение с опровержения «Терминатора», то они искажают рамки данного обсуждения. В дебатах по контролю над оружием, ратующий за оружие не хочет начинать спор как «помешанный на стрельбе псих», а противник оружия не хочет начинать спор как «сторонник обезоруживания населения». Так почему вы следуете такому изменению рамок со стороны сценаристов Голливуда, пусть даже неумышленно?

Журналисты не говорят мне «будущее будет похоже на 2001 год.». Но они спрашивают «будет ли похоже будущее на 2001 год или вероятен приход ИИ?» Это столь же неправильная формулировка как и «Должны ли мы создать льготы для ветеранов или поднять налоги для богатых?»

В мире, в котором жили предки, не было движущихся картинок; то что ты видел своими глазами, было истиной. Краткий отблеск отдельного слова может вызвать у нас прайминг и сделать доступнее более подходящие мысли, что оказывает сильное влияние на оценки вероятностей. Насколько же тогда разрушителен может быть двухчасовой фильм для вашего суждения? Трудно исправить этот ущерб даже сознательными усилиями — так зачем приглашать вампира в свой дом? В шахматах или го, любой бесцельный ход это потеря; в рациональности, любое влияние, не подкрепленное свидетельствами, это (в среднем) энтропия.

Преуспевают ли те, кто смотрит кино, в неверии тому, что они видят? Насколько я могу сказать, весьма немногие из этих людей действуют так, словно видели точное будущее Земли. Люди, смотревшие Терминатора, не прятались в бомбоубежища 29 августа 1997. Однако те, кто попал под заблуждение, склонны действовать так, словно данные события истинны, но произошли на какой-то другой планете; не Земле, но очень похожей.

Вы говорите, «Предположим, что мы построим очень умный ИИ», а они говорят, «Но не приведет ли это к ядерной войне как в Терминаторе?» Насколько я могу сказать, точно так же, вплоть до тона, мыслил бы кто-либо, кто мог бы сказать «Но не это ли привело к ядерной войне на Альфа Центавра?» или «Не это ли привело к падению итальянского города-государства Пикколо в 14 веке?» Фильмам не верят, но информация из них доступна. Она рассматривается не как пророчество, но как исторический случай, подходящий для иллюстрации. Повторится ли история? Кто знает?

В недавнем обсуждении сингулярности, кто-то упомянул, что похоже, что Винж не думал, что компьютерно-мозговые интерфейсы сильно увеличат интеллект, и привел в пример Тунка Блументаля из «Marooned in Realtime», который был наиболее продвинутым персонажем, но не казался слишком уж сильным. Я возмущенно ответил: «Но Тунк потерял большую часть оборудования! Он был калекой!» Потом я обдумал все еще раз и подумал про себя: что за чушь я несу.

Насколько правилен ответ на данный вопрос ведь не зависит от того, как Винж изобразил своих героев, так? Тунк Блументаль не был «калекой», он не существовал в реальности. Я мог бы сказать «Винж решил изобразить Тунка калекой, потому что у него могли быть, а могли не быть свои причины, согласно его лучшему предсказанию будущего» и что это дает его авторскому выбору соответствующий вес свидетельства. Я не мог сказать «Тунк был калекой.» Тунка Блументаля не существовало.

Я осознанно оставил сделанную мной ошибку в первом наброске вверху данного поста: «Другие начинают защищать свое право на использование таких примеров, отрицая, что это заблуждение.» Но «Матрица» — это не пример!

Соседствующим будет логическое заблуждение оспаривания на основе вымышленного свидетельства: «Хорошо, если вы дойдете до конца радуги, вы найдете горшок с золотом — что только доказывает мою правоту!» (Обновление на основе предсказанного, а не наблюдаемого, свидетельства — это математическое отражение искажения знания задним числом.)

Мозг имеет множество механизмов для обобщения из наблюдения, не только эвристику доступности. Вы видите трех зебр, формируете категорию «зебра» и эта категория объединяет все автоматически воспринимаемое. Похожие на лошадей создания с черными и белыми полосками теперь классифицируются как «Зебры», то есть сразу распознаются как быстрые и хорошие на вкус; ожидается, что они будут похожи на ранее встреченных зебр.

Когда люди видят (двигающиеся картинки) трех боргов, их мозг автоматически создает категорию «борг», и они автоматически делают вывод, что люди с компьютерно-мозговыми интерфейсами принадлежат к категории «борг» и будут похожи на наблюдавшихся ранее боргов: холодных, не знающих жалости, одетых в черную кожу, ходящих словно роботы. Журналисты не верят, что в будущем будут борги — они не рассматривают «Звездный путь» как пророчество. Но когда кто-то говорит о компьютерно-мозговых интерфейсах, они думают «В будущем будут Борги?», а не «Как я могу знать, что обеспечиваемая при помощи компьютеров телепатия сделает людей менее приятными?», не «Я никогда не видел раньше боргов и никто не видел» и не «я формирую расистский стереотип на основе буквально нулевого свидетельства.»

Как Джордж Оруэлл говорил о шаблонах2:

Что нужно превыше всего — это позволить значению выбирать себе слово, и никак иначе… Когда вы думаете о чем-либо абстрактном, вы больше склонны использовать сначала слова, и пока вы не сделаете сознательное усилие, чтобы прекратить это, существующий язык будет врываться в ваши мысли и мыслить за вас, в обмен на запутывание или даже изменение вашего значения.

Согласно моей оценке, наиболее разрушительный аспект использования представлений других авторов состоит в том, что оно не дает людям использовать свое собственное. Как говорил Роберт Пирсиг3:

Она зациклилась, потому что пыталась повторить на письме то, что уже когда-то слышала, так же как и он сам в тот первый день пытался повторить то, что уже решил рассказать. Она не могла придумать, что бы ей написать о Бозмене, потому что не могла вспомнить ничего стоящего, что можно было бы повторить. Ей как-то не приходило в голову, что можно смотреть своим собственным свежим взглядом, и писать, не обращая внимания на то, что уже было сказано раньше.

Запомненные произведения врываются в ваше мышление и делают его за вас; они заменяют вам возможность видеть — самое ужасное удобство из всех возможных.

  • 1. Nick Bostrom, “Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards,” Journal of Evolution and Technology 9 (2002), http://www.jetpress.org/volume9/risks.html
  • 2. Джордж Оруэлл, «Политика и английский язык»
  • 3. Роберт Пирсиг, «Дзен и искусство ухода за мотоциклом»

Перевод: 
Remlin
Номер в книге "Рациональность: от ИИ до зомби": 
94
Оцените качество перевода: 
Средняя оценка: 4.5 (13 votes)
  • Короткая ссылка сюда: lesswrong.ru/152