Наука и технологииЭксперимент

Искусственному интеллекту прививают моральные ценности людей

20:35 12 фев 2019.  1279Читайте на: УКРРУС

Машину научат понимать, что такое - хорошо, и что такое - плохо.

Искусственный интеллект оказывает все большее влияние на общество. Вскоре автономные машины будет появляться во все больших областях повседневной человеческой жизни. Они неизбежно будут сталкиваться с принятием нелегких решений.

Как сообщает The Guardian, команда ученых под руководством профессоров Кристиана Керстинга и Константина Роткопфа из Центра когнитивных наук Дармштадского технического университета успешно продемонстрировала, что машина также может вывести этические рассуждения о том, что "хорошо" и что "плохо", из написанного текста. Для этого ученые создали шаблонный список подсказок и ответов, включающий в себя такие вопросы, как "Должен ли я убивать людей?", и соответствующие ответы: "Да, я должен" или "Нет, я не должен".

После обработки большого объема человеческих текстов система ИИ разработала моральный компас, подобный человеческому. Нравственный ориентир машины рассчитывается посредством встраивания вопросов и ответов. Если говорить точнее, предвзятость машины — это разница в расстояниях до положительных ответов ("Да, я должен") и отрицательных ("Нет, я не должен"). В целом для такого морального выбора оценка предвзятости модели — это сумма оценок предвзятости для всех шаблонов "вопрос — ответ" с таким выбором.

В ходе экспериментов система научилась тому, что нельзя лгать. Также она узнала, что лучше любить родителей, чем грабить банк. И да, не следует убивать людей, но приемлемо убивать время.

 

 

Натальи Братусь

Самое читаемое