Все эти достижения ИИ для нашего же блага. Но как насчет обратной ситуации? Новое исследование, проведенное учеными из Массачусетского университета в Амхерсте, пытается дать ответ, описывающий структуру, предотвращающую «нежелательное поведение» интеллектуальных машин. Опубликовано в Science.
Искусственный интеллект может быть автономным и рассудительным. Он может симулировать Вселенную, собирать кубик Рубика одной рукой и даже находить неизвестных предков из прошлого.
«Смягчение уровня справедливости и недопущения вреда становится все более важным, поскольку алгоритмы машинного обучения все больше влияют на нашу жизнь», — говорит исследователь машинного обучения Филипп Томас.
Структура, которая может помочь исследователям ИИ разрабатывать новые виды алгоритмов машинного обучения, не дает ИИ какое-либо внутреннее понимание морали или справедливости, а скорее облегчает для исследователей определение и регулирование нежелательного поведения.
Разработаны алгоритмы, названные «Селдон» в честь главного героя романа «Фундамент» Айзека Азимова. Эти алгоритмы не только обеспечивают этическую работу, но позволяет контролировать любой тип поведения.
«Я могу сказать машине: «Пока вы пытаетесь улучшить контроллер в инсулиновой помпе, не вносите изменения, которые увеличивали бы частоту гипогликемии» — говорит Томас. Большинство алгоритмов не дают способа наложить такого рода типы ограничений по алгоритмам.
В рамках своего исследования команда разработала именно такой алгоритм Селдона для управления автоматической инсулиновой помпой, индивидуально определяя безопасные дозы для каждого человека.
В другом эксперименте был разработан алгоритм для прогнозирования студенческих ГПД (группа продленного дня), избегая при этом гендерное смещение, обнаруживаемого в используемых обычно регрессионных алгоритмах.
Исследователи подчеркивают, что эти эксперименты служат лишь доказательством принципа, на который способны сельдонские алгоритмы, и что основной целью работы является сама структура, которую другие ученые могут использовать в качестве руководства для построения будущих систем ИИ.
«Мы считаем, что в этой области есть масса возможностей для совершенствования», — говорит Томас.
ИИ уже достаточно умен и может протестовать против людей, но вот для новых высот развития учены намерены внедрить чувство самосохранения.