Исследователи Университета Северной Каролины разработали систему, следуя которой, ИИ сможет делать этический выбор и учитывать моральную ответственность за свои решения. Система рассчитана в первую очередь на роботов и ИИ, работающих с больницах и оказывающих помощь людям.
Когда-то Айзек Азимов сформулировал 3 закона робототехники. Главная цель этих законов — ограничить поведение роботов таким образом, чтобы они не могли причинить вред человеку. И эти законы в рассказах Азимова «прошиты» прямо в «позитронный мозг» робота. Но весь азимовский цикл «Я робот» написан о том, что эти «три закона» работают не всегда. Герои рассказов постоянно оказываются в положении, когда непонятно, что такое «вред», и как его «не причинить».
Но так или иначе сформулировать систему запретов и рекомендаций необходимо, иначе человек не сможет работать с роботами, если они достаточно самостоятельны, чтобы принимать свои решения, а не только следовать командам.
Исследователи Университета Каролины решили разработать принципы ИИ, которые могли бы внести такие ограничения в работу роботов.
Мораль робота
Проект, который разрабатывают в Университете Северной Каролины, сосредоточен на технологиях, в которых люди взаимодействуют с программами искусственного интеллекта, такими как виртуальные помощники в медицинских учреждениях.
«Предполагается, что роботы для ухода за больными, должны обеспечить безопасность и комфорт пациентов. С практической точки зрения это означает, что технологии должны использоваться в положениях, где необходимо выносить этические суждения», — говорит Велько Дублевич, соавтор работы.
Дублевич приводит такой пример: «Предположим, робот находится в ситуации, когда два человека нуждаются в медицинской помощи. Один пациент находится без сознания, но ему требуется неотложная помощь, а второй пациент тоже нуждается в помощи, но он в сознании и требует, чтобы робот помог именно ему. Робот-должен сделать выбор, какому пациенту оказать помощь первым. Вообще должен ли робот помогать пациенту, который находится без сознания и, следовательно, не может дать согласие на лечение?»
Ученые выделили два фактора — цель и действие. Первый фактор определяет цель действия и характер агента, выполняющего действие. Второй – это само действие. Обычно люди склонны рассматривать определенные действия, например, ложь, как заведомо «плохие». Но, как говорят ученые, в некоторых случаях, если цель правильная (помочь человеку), а действие ложное (например, ложь), если трудно помочь человеку, не солгав ему, ложь — допустима. Например, пока робот спасает умирающему, другой больной будет более спокоен, если робот ему солжет, но успокоит. Люди так поступают достаточно часто, но у них такая «допустимость лжи» основана на очень тонких ощущениях уместности, которые встроить в ИИ еще долго не удастся.
Исследователи разработали для ИИ поиск по дереву решений. Это в общем похоже на законы робототехники Азимова, только таких законов очень много. Разработанная модель получила название «Агент, действие и последствия» (ADC). Она должна представить, как люди принимают сложные этические решения в реальном мире. Никакого особого чутья, у робота нет, но у него есть возможность обучения, высокая скорость поиска и оптимизации решения. Сможет ли высокая скорость заменить представления человека о морали и ответственности, пока непонятно, но сделан первый шаг.
Дублевич замечает: «Мы не просто говорим, что эти этические рамки будут хорошо работать для ИИ, мы представляем их на языке, который позволяет встроить их в компьютерную программу».
Это одна из первых совместных работ философов-этиков и инженеров. Вероятно, в дальнейшем число таких междисциплинарных исследований в робототехнике будет быстро расти.
Источник techinsider