Ежели, к примеру, робот получает от человека приказ, и считает, что он противоречит какой-нибудь норме моральности, то может отказаться от выполнения такого указа.
Ежели робот не может выполнить команду, он уведомляет об этом человека и объясняет причины отказа. Соответствующий доклад об этой работе профессионалы представили на конференции AI-HRI, а его короткое содержание информирует IEEE Spectrum. Точно также же наоборот, когда робот посчитает какое-либо задание необходимым для выполнения, то может самостоятельно предложить это человеку. При этом, после того как человек уточнит некоторые данные, робот может все-таки выполнить задачу. Так, американские учёные разработали специальную программу, которая ставит под сомнение необходимость выполнения роботом тех либо иных указов.
Профессионалы Университета Тафтса обучили робота NAO сомневаться в приказах человека. В самом концепте, конечно же, задумка не нова, но что-то подобное использовалось при передаче данных в ИВС и при разграничении доступа.