Ученые изобрели алгоритмы, которые заставят ИИ быть справедливыми к людям | Популярный Университет

Ученые изобрели алгоритмы, которые заставят ИИ быть справедливыми к людям

Ученые изобрели алгоритмы, которые заставят ИИ быть справедливыми к людям

Все эти достижения ИИ для нашего же блага. Но как насчет обратной ситуации? Новое исследование, проведенное учеными из Массачусетского университета в Амхерсте, пытается дать ответ, описывающий структуру, предотвращающую «нежелательное поведение» интеллектуальных машин. Опубликовано в Science.

Искусственный интеллект может быть автономным и рассудительным. Он может симулировать Вселенную, собирать кубик Рубика одной рукой и даже находить неизвестных предков из прошлого.

«Смягчение уровня справедливости и недопущения вреда становится все более важным, поскольку алгоритмы машинного обучения все больше влияют на нашу жизнь», — говорит исследователь машинного обучения Филипп Томас.

Структура, которая может помочь исследователям ИИ разрабатывать новые виды алгоритмов машинного обучения, не дает ИИ какое-либо внутреннее понимание морали или справедливости, а скорее облегчает для исследователей определение и регулирование нежелательного поведения.

Разработаны алгоритмы, названные «Селдон» в честь главного героя романа «Фундамент» Айзека Азимова. Эти алгоритмы не только обеспечивают этическую работу, но позволяет контролировать любой тип поведения.

«Я могу сказать машине: «Пока вы пытаетесь улучшить контроллер в инсулиновой помпе, не вносите изменения, которые увеличивали бы частоту гипогликемии» —  говорит Томас. Большинство алгоритмов не дают способа наложить такого рода типы ограничений по алгоритмам.

В рамках своего исследования команда разработала именно такой алгоритм Селдона для управления автоматической инсулиновой помпой, индивидуально определяя безопасные дозы для каждого человека.

В другом эксперименте был разработан алгоритм для прогнозирования студенческих ГПД (группа продленного дня), избегая при этом гендерное смещение, обнаруживаемого в используемых обычно регрессионных алгоритмах.

Исследователи подчеркивают, что эти эксперименты служат лишь доказательством принципа, на который способны сельдонские алгоритмы, и что основной целью работы является сама структура, которую другие ученые могут использовать в качестве руководства для построения будущих систем ИИ.

«Мы считаем, что в этой области есть масса возможностей для совершенствования», —  говорит Томас.

ИИ уже достаточно умен и может протестовать против людей, но вот для новых высот развития учены намерены внедрить чувство самосохранения.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Поделиться

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: