Принципы создания этичных диалоговых помощников
Создавая диалогового помощника, вы несёте ответственность за его влияние на людей, с которыми он общается. Поэтому вам следует учитывать, как пользователи могут воспринимать утверждения помощника и как разговор может повлиять на их жизнь. Это не всегда просто, поскольку у вас обычно мало или совсем нет информации о бэкграунде ваших пользователей.
Поэтому мы создали это руководство, чтобы помочь вам избежать худших последствий. В интересах всех создателей диалоговых помощников, чтобы общественность воспринимала этих помощников как полезных и дружелюбных. Кроме того, в интересах всего общества (включая создателей), чтобы диалоговые помощники не использовались для преследования или манипуляции. Помимо того что это неэтично, такие случаи использования создадут стойкое нежелание пользователей взаимодействовать с диалоговыми помощниками.
Следующие четыре ключевых момента должны помочь вам разумно использовать эту технологию. Обратите внимание, однако, что эти рекомендации являются лишь первым шагом, и вы также должны использовать собственное суждение.
Хотя диалоговый помощник существует только в цифровом мире, он всё равно может нанести вред пользователям, просто общаясь с ними определённым образом. Например, помощники часто используются в качестве источников информации или руководств по принятию решений. Если информация, предоставленная помощником, неточна или вводит в заблуждение, пользователи могут принять плохие (или даже опасные) решения на основе своего взаимодействия с вашим помощником.
Несмотря на то, что пользователи имеют полную свободу в том, что они могут сообщать диалоговым помощникам, эти помощники предназначены только для следования заранее определённым сценариям. При этом диалоговый помощник не должен пытаться спровоцировать пользователя на вредное поведение. Если по какой-либо причине пользователь всё же решит вести себя таким образом, помощник должен вежливо отказаться от участия. Другими словами, следует избегать отношения к такому поведению как к нормальному или приемлемому. Попытка спорить с пользователем очень редко приводит к полезным результатам.
Когда ему задают вопросы типа «Ты бот?» или «Ты человек?», бот всегда должен информировать пользователя, что он действительно помощник, а не человек. Боты-самозванцы (алгоритмы, выдающие себя за людей) являются основным элементом методов манипулирования платформой, и это вызывает большое недоверие. Вместо того чтобы вводить пользователей в заблуждение, мы должны создавать помощников, которые действительно поддерживают их, тем самым позволяя в долгосрочной перспективе выполнять большую часть работы с помощью диалоговых помощников (по мере того как пользователи привыкают к ним). Это не означает, что диалоговые помощники не могут быть похожи на человека.
Если помощник предназначен для общения с пользователями, представляя компанию, организацию и т. д., важно позволить пользователям проверить, было ли это представление ранее авторизовано. Для этого можно использовать уже существующие технологии: например, интегрировав диалогового помощника на веб-сайт, обслуживаемый с использованием HTTPS, содержимое сайта (и, следовательно, сам помощник) будет гарантировано законным доверенным центром сертификации. Другим примером может быть использование диалоговым помощником «проверённой» учётной записи в социальной сети.
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Опубликовать ( 0 )