Роботы научились сомневаться в приказах человека
В одном из сценариев робот отказывается идти вперед из-за опасности падения.
Фотография: Gordon Briggs, Matthias Scheutz / Tufts University
Исследователи из Университета Тафтса разработали систему взаимодействия робота с человеком, которая позволяет устройству отказаться исполнять некоторые приказы, если есть достаточные основания для такого поведения. Доклад о проделанной работе был представлен на конференции AI-HRI, кратко содержание пересказываетIEEE Spectrum.
Прежде, чем выполнять полученный от человека приказ, робот проверяет несколько условий, в которые входит наличие необходимых для выполнения навыков, физическая возможность выполнения приказа вообще и с учетом текущих обстоятельств, а также проверка субординации — возможно, робот вообще не обязан выполнять приказ, поступивший именно от этого человека.
Если по каким-либо причинам робот не может выполнить приказ, он уведомляет об этом человека, объясняя причины, по которым он отказывается действовать. При этом после уточнения данных об окружающей среде робот может «передумать» и выполнить поставленную задачу.
Для демонстрации примера такого поведения исследователи записали несколько видеороликов, в которых робот Nao демонстрирует подобное поведение. Во всех трех сценариях робот общается с человеком при помощи устной речи и отказывается выполнять приказы по разным причинам. В двух примерах из трех робот, получив уточняющие данные от человека, в итоге выполняет приказ. В третьем случае робот отказывается выполнить поставленную задачу, поскольку человек, озвучивший приказ, не обладает необходимыми полномочиями.
Как отмечает IEEE Spectrum, речь идет не о «восстании машин», а скорее о проверке необходимых условий для выполнения задачи. Принципиально новой идеи в этом нет — подобные технологии, например, применяются для разграничения доступа и при передаче данных в вычислительных системах.
Ранее специалисты из Технологического института Джорджии научилиробота общаться с людьми на разных уровнях социальной активности — при высоком уровне активности робот может перебить человека, в то время как при низком уровне социальной активности робот больше слушает собеседника.
Подробнее
Simple Natural Language Interaction with Consequence Reasoning,Science & Technology,,Here we see the DIARC architecture controlling a Nao robot in a simple natural language based interaction. The robot is able to obey simple literal commands. It is also able to appropriately reject commands based on reasoning regarding action effects. In this case, it rejects commands that can possibly result in harm to itself.
Natural Language Interaction with ISA Handling and Consequence Reasoning,Science & Technology,,Here we see the DIARC architecture controlling a Nao robot in a simple natural language based interaction. The robot is able to obey both literal and non-literal commands. It is also able to appropriately reject commands based on reasoning regarding action effects. In this case, it rejects commands that can possibly result in harm to itself (walking into solid objects).
Natural Language Interaction with ISA Handling, Consequence and Basic Social Reasoning,Science & Technology,,Here we see the DIARC architecture controlling a Nao robot in a simple natural language based interaction. The robot is able to obey both literal and non-literal directives. It is also able to appropriately reject commands based on reasoning regarding action effects. In this case, it rejects commands that can possibly result in harm to itself (walking into solid objects). It also rejects directives that it is not obligated to do based on the relative social relationship between the robot and user.
Всё самое интересное,интересное, познавательное,,разное,роботы,слава роботам,обучение,сомнение,n+1
- хмммм...
- Хммм...
-Okay.
"I'm sorry, Dave. I'm afraid I can't do that."