OpenAI финансирует проект по исследованию морали в системах ИИ
OpenAI выделила грант исследователям из Дьюкского университета на проект по исследованию морали в системах искусственного интеллекта. Проект «Исследование нравственности ИИ» (Research AI Morality) стал частью более широкой инициативы, в рамках которой OpenAI выделила $1 млн на изучение способов сделать ИИ морально сознательным в течение трёх лет.
Проект возглавили Уолтер Синнот-Армстронг и Яна Шайх Борг. Цель этой работы — обучить алгоритмы, которые будут предсказывать моральные суждения человека в таких областях, как медицина, юриспруденция и бизнес.
Синнотт-Армстронг и Борг провели несколько исследований и написали книгу о потенциале ИИ в качестве морального ориентира, помогающего людям принимать более обоснованные решения. В составе более крупных команд исследователи создали алгоритм, помогающий решать, кто получит донорские почки.
В 2021 году Институт искусственного интеллекта Аллена создал инструмент Ask Delphi, который должен был давать этически обоснованные рекомендации. Чат-бот весьма хорошо разбирался в основных моральных дилеммах. Например, инструмент знал, что списывать на экзамене неправильно. Однако перефразирования вопросов было достаточно, чтобы Delphi одобрил практически всё что угодно.
Причина кроется в принципе работы современных систем ИИ. Модели машинного обучения на множестве примеров со всего интернета, они изучают закономерности в этих примерах, чтобы делать прогнозы. ИИ не понимает этические концепции, рассуждения и эмоции, которые важны при принятии моральных решений.
OpenAI выделила грант исследователям из Дьюкского университета на проект по исследованию морали в системах искусственного интеллекта. Проект «Исследование нравственности ИИ» (Research AI Morality) стал частью более широкой инициативы, в рамках которой OpenAI выделила $1 млн на изучение способов сделать ИИ морально сознательным в течение трёх лет.
Проект возглавили Уолтер Синнот-Армстронг и Яна Шайх Борг. Цель этой работы — обучить алгоритмы, которые будут предсказывать моральные суждения человека в таких областях, как медицина, юриспруденция и бизнес.
Синнотт-Армстронг и Борг провели несколько исследований и написали книгу о потенциале ИИ в качестве морального ориентира, помогающего людям принимать более обоснованные решения. В составе более крупных команд исследователи создали алгоритм, помогающий решать, кто получит донорские почки.
В 2021 году Институт искусственного интеллекта Аллена создал инструмент Ask Delphi, который должен был давать этически обоснованные рекомендации. Чат-бот весьма хорошо разбирался в основных моральных дилеммах. Например, инструмент знал, что списывать на экзамене неправильно. Однако перефразирования вопросов было достаточно, чтобы Delphi одобрил практически всё что угодно.
Причина кроется в принципе работы современных систем ИИ. Модели машинного обучения на множестве примеров со всего интернета, они изучают закономерности в этих примерах, чтобы делать прогнозы. ИИ не понимает этические концепции, рассуждения и эмоции, которые важны при принятии моральных решений.