Считаем как роботы айзек азимов

Обновлено: 19.05.2024

Причем искусственный интеллект рассматривается с самых разных сторон. Он может быть крайне опасным и даже враждебным. Он может быть страдающим и мятущимся. Он может быть беззащитным и дискриминируемым. Все зависит от воли и фантазии авторов.

К сожалению, редко сейчас вспоминают про замечательную идею американского классика научной фантастики Айзека Азимова, который предложил изначально встраивать всем роботам в прошивку три железных закона. Именно соблюдение этих законов, по его мнению, позволило бы максимально безболезненно и эффективно найти для роботов нишу в человеческом обществе.

Законы эти следующие:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Обратите внимание, что все законы иерархичны, то есть чем меньше номер закона, тем он приоритетнее для робота.

Сам Азимов создал целый цикл рассказов, объединенных общим названием "Я, робот", в котором с разных сторон рассматривались ситуации с применением и интерпретацией этих законов.

Есть там и случаи намеренного отступления от них. В частности, рассказ "Как потерялся робот" посвящен партии роботов, которой прописали первый закон в усеченном виде - без оговорки про бездействие. Последствия были весьма серьезные.

В целом же, эти три закона роботехники были весьма популярны в научной фантастике двадцатого века. Они даже стали кратко называться "Законы Азимова" и использоваться в произведениях других фантастов, разрабатывающих сходную тематику.

Но интересно, что есть и еще один закон. Его Азимов вывел позже и дал ему порядковый номер 0. Как вы понимаете, это означает его наивысший приоритет. Он появился на свет спустя полвека после первых трех в романе 1985 года "Роботы и Империя".

Нулевой закон гласит:

0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред.

Согласно этому закону, робот способен на намеренное убийство человека в том случае, если этот человек является угрозой для всей цивилизации. Момент, конечно, очень спорный, поскольку в этом случае робот получает возможность принимать столь ответственное решение, опираясь на свои собственные представления о том, что такое "угроза" или "вред".

А вы как думаете, нужен такой закон? Или он наоборот, опасен и достаточно стандартных трех?

4. Понижайте стандарты

Азимов был ярым противником стремления к идеалу. По его словам, пытаться в первый раза всё сделать идеально – это большая ошибка. Вместо этого обратите внимание на основные детали.

Представьте себя художником за созданием наброска. Ему необходимо чётко представить композицию, цветовые блоки, баланс, и всё остальное. Сделав это, можно начинать беспокоиться о мелочах.

Не пытайтесь с первого раза нарисовать Мону Лизу. Понижайте стандарты. Сделайте проверочный продукт, временный набросок, грубый черновик.

В то же время Азимов настаивает на уверенности в себе:

[Писатель] не может сидеть и сомневаться в качестве написанного. Он должен любить свои работы. Я люблю.

Верьте в то, что создаёте. Это не значит, что вы не должны стараться сделать всё каждый раз как можно лучше. Вера в себя – это выйти за пределы, потерпеть жестокую неудачу и найти в себе силы снова подняться.

Мы терпим неудачи, мы боремся, и потому достигаем успеха.

1. Никогда не прекращайте учиться

Азимов был не просто автором научной фантастики. У него была докторская степень по химии в Колумбийском университете. Он писал работы по физике, по древней истории, и даже написал книгу о Библии. Каким образом он умудрялся покрыть такой диапазон в век близорукой специализации? В отличие от современных профессионалов, Азимов не заканчивал обучение, получив степень.

Я в принципе не смог бы написать такие разносторонние книги на основании только образования, полученного в школе. Мне нужно было постоянно заниматься самообучением. Моя библиотека книг росла, и мне приходилось постоянно рыться в них, боясь, что я неправильно пойму какой-то вопрос, который для знающего человека покажется абсурдно простым.

Чтобы рождать хорошие идеи, необходимо поглощать хорошие идеи. Дипломом дело не заканчивается – только начинается.

Когда Азимов рос, он читал всё.

Всё это разнообразное чтение, происходившее от отсутствия направляющей руки, оставило свой след. Мой интерес проявлялся в двадцати различных направлениях, и остаётся таким. Я писал книги по мифологии, по Библии, по Шекспиру, по истории, по науке, и так далее.

Читайте разнообразные книги, поддавайтесь любопытству, инвестируйте в себя без остановки.

5. Делайте БОЛЬШЕ

Что интересно, в качестве лекарства от перфекционизма Азимов рекомендует создавать больше.

Ко времени публикации определённой книги у писателя уже нет времени для волнений по поводу того, как её примут, и как она будет продаваться. К тому времени он уже продал несколько других книг и работает ещё над несколькими, которые и служат причиной его волнений. Благодаря этому в его жизни усиливается ощущение мира и спокойствия.

Если каждые несколько недель у вас выходит новый продукт, у вас не остаётся времени ныть над неудачами. Поэтому я стараюсь писать несколько статей в неделю, а не концентрироваться на одной «идеальной». Меньше тревог от неудач. Разнообразие – это страховка для разума.

Законы робототехники Азимова

Три Закона робототехники – основополагающие ограничительные правила алгоритма действий робота, сформулированные американским фантастом Айзеком Азимовым .

По признанию самого писателя, он всегда полагал, что робот – это всего лишь очередной вид машин , созданных человеком. Любая машина несет в себе какую-то опасность , для защиты от которой люди разрабатывают специальные предохранительные устройства .

В 1939 году Азимов начал писать цикл рассказов, в которых главные действующие персонажи – металлические антропоморфные механизмы , снабженные позитронным мозгом.

Первое указание на существование лимитирующих поведение роботов Законов отражено в фантастическом рассказе «Робби» / «Robbie» (1940 г.). Спорящие об опасности использования робота в качестве няни для ребенка, супруги упоминают Первый Закон робототехники , запрещающий причинение вреда человеку.

Осенью 41-го Азимов сочинил небольшой научно-фантастический рассказ «Хоровод» / «Runaround» , опубликованный в марте 42-го. В этой выдуманной истории писатель голосом одного из героев-людей впервые оглашает читателям все Три Основных Закона робототехники .

Закон номер Один . Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

Закон номер Два . Робот должен повиноваться всем приказам, которые дает человек, если эти приказы не противоречат Первому Закону.

Закон номер Три . Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому и Второму Законам.

Законы робототехники приобрели невероятную популярность у читателей и стали казаться столь значительными, что их начали заимствовать другие писатели-фантасты для своих произведений.

Законы робототехники – своего рода Заповеди Азимова для потомков, которые будут работать над созданием Искусственного Интеллекта .

6. Секретный ингредиент

Друг Азимова, писатель, боровшийся с отсутствием идей, спросил его однажды, «Где ты берёшь свои идеи?». Азимов ответил, «Я думаю, думаю, думаю, до тех пор, пока не появляется желание убить себя. Ты что, считал, что до хороших идей легко додуматься.

Как сделать так, чтобы у вас не кончались идеи: метод Айзека Азимова

image

Одним словом Айзека Азимова можно описать так: плодовитый. Чтобы сравняться по количеству повестей, писем, эссе и других текстов, которые Азимов выдал за всю свою жизнь, вам необходимо будет писать полноразмерную повесть каждые две недели в течение 25 лет.

Как Азимов умудрялся выдавать столько хороших идей, в то время как у всех остальных их наберётся 1-2 штуки за всю жизнь? Чтобы ответить на этот вопрос, я изучил его автобиографию, "Это была хорошая жизнь".

Азимов не с рождения писал тексты 8 часов в день 7 дней в неделю. Он разрывал страницы, отчаивался, и периодически у него случались неудачи. В автобиографии Азимов делится тактикой и стратегией, выработанной им для того, чтобы идеи больше не заканчивались.

Давайте украдём у него всё, что можно.

3. Опасайтесь сопротивления

Всем творцам – предпринимателям, писателям, художникам – известен страх оформления идей. Как только мы что-то предъявили миру, оно становится вечной мишенью для отвержения и критики со стороны миллионов глаз.

Иногда после публикации статьи я жутко пугаюсь и не читаю комментарии и письма о ней. Этот страх – величайший враг творца. В книге "Война искусства" [The War of Art] Стивен Прессфилд [Steven Pressfield] называет этот страх Сопротивлением. Азимову тоже было знакомо Сопротивление.

Обычный писатель всегда подвергается сомнению во время работы. Осмысленно ли только что созданное им предложение? Настолько ли оно хорошее, насколько это возможно? Не может ли оно звучать лучше, если написать его иначе? Обычный писатель всегда пересматривает текст, всегда кромсает и меняет, всегда находится в поисках других способов самовыражения, и никогда не остаётся удовлетворённым.

Неуверенность в себе убивает сознание. Я безжалостный редактор. Я правил и переправлял эту статью десяток раз. И она всё равно выглядит хреново. Но нужно остановиться, или я её вообще не выпущу.

Страх быть отвергнутым превращает нас в «перфекционистов». Но это лишь защитный панцирь. Мы прячемся в него в трудное время. Он даёт нам ощущение безопасности – но оно ложное. На самом деле, у всех есть идеи. Семена творчества прорастают через подоконники разума. Разница между Азимовым и нами в том, что мы отвергаем наши идеи, не давая им шанса.

Если у вас нет идей, то у вас не будет и провалов.

Три закона Азимова помогли сформировать ИИ. Нам нужно еще четыре

Три закона робототехники Айзека Азимова, вероятно, являются самыми известными и влиятельными из когда-либо написанных в сайенс-фикшн строк в направлении технической политики. Известный писатель предположил, что по мере того, как машины будут обретать большую автономию и играть большую роль в жизни человека, нам понадобятся жёсткие правила, чтобы они не могли нанести нам вред.

Теперь, с A.I., автоматизацией и восходом заводской робототехники создаваемые машинами и их производителями опасности ещё более сложны и насущны. Специально к старту нового потока курса Machine Learning представляем вам перевод интервью с Фрэнком Паскуале, профессором Бруклинского юридического института, который в провокационной книге New Laws of Robotics: Defending Human Expertise in the Age of AI предлагает добавить четыре новых закона к трём законам Азимова.





Приводим законы Азимова для тех, кто с ними не знаком:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат первому закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам.
  1. Цифровые технологии должны дополнять профессионалов, а не заменять их.
  2. ИИ и роботизированные системы не должны подделывать человека.
  3. В области ИИ следует предотвратить усиление гонок вооружения с нулевой суммой [прим. перев. — это относится к понятию игр с нулевой суммой из теории игр].
  4. Роботы и системы ИИ должны указывать на личность своих создателей, контролирующих их людей и владельцев.

OneZero обратился к Паскуале, чтобы обсудить, почему он решил обновить законы Азимова, поговорить о причинах, лежащих в основе новых законов, и о многом другом.

Почему вы считаете важным обновить три закона Азимова? Кроме того, зачем делать акцент в книге вокруг демократизации этих решений о том, как используются робототехника и искусственный интеллект?

Законы Азимова — о том, чтобы роботы не обращались с людьми плохо. И я думаю, что это очень важно, конечно, но нам нужно больше идей, учитывающих настоящее и будущее, с которым мы столкнёмся. Намного больше. Нам необходимо обеспечить прочный и демократичный человеческий контроль над развитием технологий. Я думаю, большая мечта многих людей из области ИИ, предположительно, — просто позволить ИИ взять на себя работу врача, медсестры, журналиста, учителя и так далее. И моя идея заключается в том, что это в действительности не та цель, к которой мы должны стремиться. Верно? Главный вопрос — в том, должны ли мы вообще делать так. Думаю, нет. Надлежащая роль многих из этих технологических областей для меня — дополнять и поддерживать профессионалов, а не заменять их.

Вполне вероятно, что дискуссии вокруг А.I. можно переосмыслить таким образом и отойти от мысли, что роботы заберут у нас нашу работу?

Думаю, да. Я честен с вами. Возьмите медицину: 10 лет назад были люди, которые говорили: «Берегитесь, врачи, роботы идут. У них отличное распознавание образов и данные, они заменят вас». Эти же люди, в частности, говорили: «Если вы врач в области радиологии, анестезиологии, дерматологии и патологии… всё это просто распознавание образов, и робот или ИИ с доступом к миллионам изображений нормальных и больных тканей сделает вашу работу намного лучше, чем вы». Здесь возникает вопрос: «Откуда роботы берут данные?». Данные берутся от людей, и, может быть, в конце концов системы ИИ станут машинами, которые будут способны брать данные самостоятельно, но даже если бы машины могли делать это, они не заменят ни одного человека на рабочем месте. На самом деле машина дополняет человека во многих отношениях, и эта ситуация должна оставаться такой. Подумаем о дерматологе. Даже если у вас есть распознающее родинки приложение, вы всё равно захотите поговорить о них с реальным человеком. Вы спросите: «Насколько вероятно, что это ложное позитивное или ложное негативное срабатывание? Мы вырезаем эту родинку, или она комфортна для вас?». Вот пример критического решения, которое должны принимать люди.

Каковы ваши размышления о том, что стоит за каждым новым законом робототехники?

Видение этого очень широко. Будь моя воля, широта задач была бы сопоставима с чем-то вроде Нового курса, где, в сущности, имелся бы массив укоренявшихся десятилетиями агентств с законодательными уставами объёмом от пяти до ста или около того страниц. Затем возникли бы агентства, похожие на Агентство безопасности, Комиссию по ценным бумагам, Федеральную комиссию связи и другие, работающие над уточнением вышеупомянутых уставов. Я надеюсь, что это произойдёт с приходом новых законов робототехники, что придут независимые агентства, которые будут уполномочены применять эти идеи.

Можете привести пару конкретных примеров того, как некоторые из ваших законов будут работать на практике?

Конечно. Возьмите первый предложенный закон о профессиях и дополнении ИИ. Робот не должен быть сертифицирован как учитель. Можно разрешить роботов или ИИ в качестве технологии, которую учителя смогут прописывать точно так же, как врачи прописывают лекарства, но не нужно стремиться к тому, чтобы учителя или какое-либо сочетание онлайн-лекций отслеживалось и курировалось исключительно искусственным интеллектом. Не хочется, чтобы ИИ действительно заменил учителей. Это пример работы закона о комплементарности в работе.

Второй новый закон «Не подделывать человека» требует, чтобы, к примеру, любой находящийся в сети робот был чётко обозначен как таковой. А для введения четвёртого нового закона в отношении атрибуции необходимо, чтобы бот был приписан конкретному лицу. На самом деле пример ботов хорош даже для третьего нового закона, здесь можно сказать, что по мере того, как эти боты начинают распространяться из-за попыток привлечь человеческое внимание в Интернете, можно принять некоторые законодательные или административные меры, чтобы остановить эту гонку вооружений между ботами за человеческое внимание.

Ваш третий новый закон направлен на предотвращение усиления гонки вооружений. Он не ограничивается военными вопросами, верно?

Верно. Я думаю, что есть много областей жизни, где мы контролируем технологию и где крупные технологические фирмы используют ИИ для получения прибыли, ставя людей в условия крысиных бегов. Я долгое время писал о рейтингах и рангах, и я думаю, что кредитный скоринг был ранним примером этого явления. А с алгоритмическим кредитованием это явление приобретает большую интенсивность. Мы увидим всё больше и больше кредиторов, применяющих ИИ и говорящих: «Мы могли бы дать вам скидку на ипотеку в 1 %, но нам нужно увидеть всю историю вызовов в вашем телефоне». Или: «Нам просто нужно увидеть больше данных о вас». Или: «Мы дадим вам скидку на вашу медицинскую страховку, вы просто должны носить это устройство, которое использует ИИ, чтобы „вычислить“, насколько вы здоровы». Эта постоянная жажда всё новых и новых данных сама по себе — гонка вооружений между технологическими компаниями. Эта жажда устраивает гонку вооружений между людьми, где они пытаются давать всё больше и больше данных, чтобы отличать себя от других. Поэтому помните, что всякий раз, когда вам дают скидку из-за вашего поведения или чего-то в этом роде, кто-то, вероятно, платит больше, верно? Такое компанией делается не по доброте душевной.

Не могли бы вы пояснить закон о том, что ИИ и робототехника должны направлять к своим создателям? Почему это так важно?

Закон вводится, по сути, для того, чтобы остановить даже идею или стремление ИИ быть автономным от людей. Я имею в виду, что существуют научно-фантастические или футуристические устремления к созданию роботов, которые могли бы быть похожими, скажем, на ваших детей. Мы обучали бы их, пока они молоды, а потом отправляли в мир. Представьте себе робота в фильме Ex Machina, Ava, её просто неконтролируемый выход в мир и так далее. Такого не должно случиться никогда. Любой выпущенный в мир робот или любой участвующий в сети как бот ИИ — все они должны отслеживаться до их владельца или контролёра, который может в любой момент отключить их или иным образом изменить их поведение, то есть робот не должен быть автономным. Мы просто избавляемся от идеи автономности. Вычёркиваем ее как то, чего никогда не сделаем.

Какая ответственность лежит на создателях за то, что в итоге делают роботы и ИИ?
Для занятых в областях робототехники и искусственного интеллекта людей пришло время взять ответственность за невероятную гибкость и пластичность их ПО, которое можно было бы запрограммировать иначе. Возьмём такой пример: я не должен расстраиваться или сочувствовать плачущему роботу, потому что его можно так же легко запрограммировать смеяться над всем, что заставляет его искусственно плакать. И здесь мы должны быть трезвыми, поскольку существует быстрорастущая область аффективных вычислений, которая для меня во многих отношениях — прелюдия к манипулированию людьми и контролю над ними со стороны крупных корпораций и правительств через посреднические эффекты технологий. И мы должны смотреть этим мрачным возможностям прямо в глаза.

В книге вы в основном концентрируетесь на влиянии ИИ и автоматизации на «профессиональную» работу. А как насчёт синих воротничков? Или людей, которые работают, скажем, на складе или в качестве кассиров в продуктовом магазине?

Об этом стоит сказать. И это так интересно, когда думаешь о работе кассира, потому что, когда есть автоматизированные киоски, которые проверяют людей, и один человек смотрит за тремя-четырьмя киосками, можно сказать: «Роботы лишили работы четырёх человек». Или можно сказать: «Ну, это позволило одному человеку быть более продуктивным, потому что теперь он отвечает за эти машины, пропускающие людей, пытается их починить, убедиться, что машины работают эффективно и так далее». Это будет очень интересный вопрос, но, в конечном счёте, я не думаю, что в этом вопросе политика должна стоять на пути автоматизации, если только люди работающие кассиры не скажут: «Есть причина, по которой вам нужны человеческое суждение и люди, которые контролируют процесс». И если убрать нас из процесса, возникнет большая проблема».

В вашей предыдущей книге The Black Box Society: The Secret Algorithms That Control Money and Information вы скрупулёзно изучаете, как подобные YouTube или Facebook-платформы процветают с помощью алгоритмов, задерживающих нас на сайте через предложение контента, в значительной степени основанного на том, что мы уже посмотрели. И, как мы все уже видели, это часто заканчивается поощрением и распространением дезинформации и теорий заговора. На ваш взгляд, нужно ли больше регулирования для решения этой проблемы?

Абсолютно необходимо. Во-первых, в новой книге я рассматриваю проблему управляющего медиа ИИ, берущего на себя главным образом редакторские функции и даже иногда функции по созданию распространяемого контента. Это вызывает тревогу, поскольку такие системы оптимизированы под задачу грубым, упрощённым образом, они сырые и не отражают социальную ценность истины. И, как вы уже упомянули, сильно проявили себя теории заговора. Попасть в ряды их сторонников легко. Другая проблема заключается в том, что управляемые ИИ платформы скажут в ответ: «Мы просто даём людям то, что они хотят». На самом же деле то, как разработана архитектура самого выбора, имеет большое влияние на то, чего хотят люди. Мы не должны жить в мире, где ИИ может сказать: «Хорошо, мы получим еще 10 зрителей, если покажем эти сумасшедшие педофильные клипы или ещё что-нибудь». Это просто грубый путь к высоким метрикам успеха.

Что, по-вашему, заставляет нас хотеть создавать роботов и ИИ, которые очень похожи на нас?

Основные аргументы в пользу создания роботов, похожих на людей, исходят из постгуманистической или трансгуманистической перспективы. Сторонник постчеловеческий перспективы сказал бы: “Мы хорошо поработали на Земле, но, вы знаете, в конечном счёте наш мозг слишком медленный. Роботы оснащены более производительными процессорами. Они будут понимать и делать больше в этом мире. Просто позвольте им это. И трансгуманист скажет: «Да, если вы хотите выйти за пределы человеческих ограничений, вам, наверное, придётся выйти за пределы человеческого тела». И часть такого подхода — вход в робототехнику, слияние с ней или что-то в этом роде. И я считаю, что трансгуманистические и постгуманистические перспективы, в конечном счете, очень антигуманистичны.

В чем конкретно эти позиции антигуманнны?

Отчасти существенным элементом человеческой сущности являются принятие и понимание наших ограничений. Наши слабости. Нужно усилие, чтобы превзойти слабость и сказать: «Ну, вот бессмертное существо; давайте относиться к нему, как к сверхчеловеку». Это проблематично. Такой подход включает отрицание того факта, что мы смертны. Что мы чувствуем боль. У нас есть ограниченное количество вещей, на которые мы можем потратить наше внимание. Когда я умру, накопится миллиард не прочитанных мной книг. И я не думаю, что кто-то может сказать: «Ну, представьте себе, вы были бы намного лучше — если бы вы были роботом, который мог бы обрабатывать 1 миллион книг за короткое время». Мой короткий ответ на это: я не думаю, что такое было бы похоже на ситуацию, когда я по-человечески читаю книгу или когда любой другой человек читает. Есть уникальный способ, которым мы взаимодействуем с вещами, и это делает нас особенными.

В целом что больше всего мотивировало на конфронтацию с возникающим ИИ в книге?

Я на самом деле хотел исследовать, что это значит — ставить человеческий труд в центр экономики и общества. В противопоставление подходу, когда человеческий труд — просто ресурс, подобный природному, где человек просто кладёт вещи в некую машину и следит за тем, что делает машина, получая на выходе нечто. Эти поиски действительно важны, в частности потому, что наша экономика сейчас ориентирована на такие вещи, как финансовые активы, акции — и на владельца этих вещей, и именно так мы измеряем успех во многих отношениях: мы смотрим, поднимается или опускается фондовый рынок. И вот мой вопрос: «Как мы могли бы думать о будущем технологий и работать над тем, чтобы человеческий труд был в центре всей дискуссии?». И размышления об этом, я надеюсь, дают представление о том, как экономика может быть намного справедливее и стабильнее для нас, людей.

2. Не боритесь с тупиком

Интересно, что Азимов также часто застревал.

Часто, работая над научно-фантастическим романом, я обнаруживал, что застрял и не могу написать ни слова.

Застревание – это нормально. Профессионала от любителя отличает то, что происходит после того, как он застрял. Азимов не давал этому событию остановить себя. С годами он выработал стратегию.

Я не пялюсь на пустые листы. Я не провожу дни и ночи, колотя по пустой голове. Я просто оставляю роман и берусь за один из десятка других ждущих меня проектов. Я пишу статью в журнал, эссе, рассказ, работаю над документальной литературой. Когда я устаю от них, моё сознание успевает поработать и вновь заполниться. Я возвращаюсь к роману и обнаруживаю, что вновь способен легко писать.

При написании этой статьи я отчаялся, бросил её и работал над другими проектами две недели. И когда я создал пространство для работы, всё кажется более простым. Мозг работает загадочным образом. Когда вы отходите в сторону, занимаетесь другими проектами и что-то намеренно игнорируете, подсознание создаёт новое пространство для идей.

Читайте также: