Новости космоса и технологий. » Технологии » Создание машин, которые лучше понимают человеческие цели

Создание машин, которые лучше понимают человеческие цели

Опубликовал: Admin, 15-12-2020, 20:56, Технологии, 33, 0

Создание машин, которые лучше понимают человеческие цели

В файле классический эксперимент над социальным интеллектом человека Психологи Феликс Варнекен и Майкл Томаселло: 18-месячный малыш наблюдает, как мужчина несет стопку книг к закрытому шкафу. Когда мужчина подходит к шкафу, он неуклюже стучит книгами о дверцу шкафа, а затем издает озадаченный звук.

Затем происходит нечто замечательное: малыш предлагает помощь. Сделав вывод цель , малыш подходит к шкафу и открывает его дверцы, позволяя мужчине поместить внутрь свои книги. Но как малыш с таким ограниченным жизненным опытом может сделать такой вывод?

Недавно компьютерные ученые перенаправили этот вопрос на компьютеры: как машины могут делать то же самое?

Критически важным компонентом для формирования такого понимания является то, что делает нас наиболее человечными: наши ошибки. Подобно тому, как малыш может сделать вывод о цели человека только на основании его неудач, машины, которые определяют наши цели, должны учитывать наши ошибочные действия и планы.

В стремлении запечатлеть этот социальный интеллект в машинах исследователи из Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL) и Департамента мозговых и когнитивных наук создали алгоритм, способный определять цели и планы, даже если эти планы могут потерпеть неудачу.

Этот тип исследования в конечном итоге может быть использован для улучшения ряда вспомогательных технологий, роботов для совместной работы или ухода, а также цифровых помощников, таких как Siri и Alexa.

«Эта способность учитывать ошибки может иметь решающее значение для создания машин, которые надежно делают выводы и действуют в наших интересах», - говорит Тан Чжи-Сюань, доктор философии. студент факультета электротехники и компьютерных наук Массачусетского технологического института (EECS) и ведущий автор новой статьи об исследовании. «В противном случае системы искусственного интеллекта могут ошибочно заключить, что, поскольку мы не смогли достичь наших целей более высокого порядка, эти цели в конце концов были нежелательными. Мы видели, что происходит, когда алгоритмы подпитываются нашим рефлексивным и незапланированным использованием социальных сетей, что приводит к Мы идем по пути зависимости и поляризации. В идеале алгоритмы будущего будут распознавать наши ошибки, вредные привычки и иррациональность и помогать нам избегать их, а не укреплять ".

Для создания своей модели команда использовала Gen, новую платформу программирования ИИ, недавно разработанную в Массачусетском технологическом институте, для объединения символического планирования ИИ с байесовским выводом. Байесовский вывод обеспечивает оптимальный способ объединения неопределенных убеждений с новыми данными и широко используется для оценки финансовых рисков, диагностического тестирования и прогнозирования выборов.

Модель команды работала в 20-150 раз быстрее, чем существующий базовый метод, называемый байесовским обратным обучением с подкреплением (BIRL), который изучает цели, ценности или вознаграждения агента, наблюдая за его поведением, и пытается заранее рассчитать полные политики или планы. Новая модель была точной в 75% случаев при выводе целей.

«ИИ находится в процессе отказа от« Стандартной модели », В которой машине ставится фиксированная, известная цель», - говорит Стюарт Рассел, профессор инженерии Смит-Заде в Калифорнийском университете в Беркли. «Вместо этого машина знает, что она не знает, чего мы хотим, а это означает, что исследование того, как выводить цели и предпочтения на основе человеческого поведения, становится центральной темой ИИ. В данной статье эта цель серьезно рассматривается; в частности, это шаг к моделированию - и, следовательно, к инверсии - фактического процесса, с помощью которого люди формируют поведение, исходя из целей и предпочтений ».

Как это работает

Несмотря на то, что была проделана значительная работа по определению целей и желаний агентов, большая часть этой работы предполагала, что агенты действуют оптимально для достижения своих целей.

Однако команду особенно вдохновил общий способ человеческого планирования, который в значительной степени неоптимален: не планировать все заранее, а скорее формировать только частичные планы, выполнять их, а затем снова планировать оттуда. Хотя это может привести к ошибкам из-за недостаточного обдумывания «заранее», это также снижает когнитивную нагрузку.

Например, представьте, что вы наблюдаете, как ваш друг готовит еду, и хотели бы помочь, узнав, что он готовит. Вы угадаете, какие следующие шаги может предпринять ваш друг: может быть, разогреет духовку, а затем приготовит тесто для яблочного пирога. Затем вы «сохраняете» только частичные планы, которые остаются совместимыми с тем, что на самом деле делает ваш друг, а затем вы повторяете процесс, планируя заранее всего в нескольких шагах от этого.

Как только вы увидите, как ваш друг замешивает тесто, вы можете ограничить его возможности только выпечкой и предположить, что он может нарезать яблоки или взять орехи пекан для смеси для пирога. В конце концов, вы избавитесь от всех планов относительно блюд, которые ваш друг не мог готовить, оставив только возможные планы (например, рецепты пирогов). Как только вы будете уверены, что это за блюдо, можете предложить свою помощь.

Алгоритм вывода команды, называемый «Последовательный поиск обратного плана (SIPS)», следует этой последовательности, чтобы вывести цели агента, поскольку он составляет только частичные планы на каждом этапе и сокращает маловероятные планы на раннем этапе. Поскольку модель каждый раз планирует только на несколько шагов вперед, она также учитывает возможность того, что агент - ваш друг - может делать то же самое. Это включает в себя возможность ошибок из-за ограниченного планирования, например, если вы не понимаете, что вам могут понадобиться две руки, прежде чем открывать холодильник. Заранее обнаружив эти потенциальные сбои, команда надеется, что эта модель может быть использована машинами для более эффективного оказания помощи.

«Одно из наших первых выводов заключалось в том, что если вы хотите вывести чьи-то цели, вам не нужно думать дальше, чем они. Мы поняли, что это можно использовать не только для ускорения вывода цели, но и для вывода намеченных целей из действия, которые слишком близоруки, чтобы добиться успеха, что приводит нас к переходу от масштабирования алгоритмов к изучению способов решения более фундаментальныхограничения существующих систем искусственного интеллекта, - говорит Викаш Мансингка, главный научный сотрудник Массачусетского технологического института и один из советников Тан Чжи-Сюаня, вместе с Джошуа Тененбаумом, профессором Массачусетского технологического института в области мозга и когнитивных наук. реконструировать здравый смысл 18-месячного человека ».

Работа концептуально построена на более ранних когнитивных моделях из группы Тененбаума, показывая, насколько проще выводы, чем дети и даже 10-месячные младенцы Сделать о целях других можно количественно смоделировать как форму байесовского обратного планирования.

Хотя до настоящего времени исследователи изучали вывод только в относительно небольших задачах планирования над фиксированными наборами целей, в ходе будущей работы, которую они планируют исследовать более богатые иерархии человеческих целей и планов. Кодируя или изучая эти иерархии, машины могут вывести гораздо более широкий круг целей, а также более глубокие цели, которым они служат.

«Хотя эта работа представляет собой лишь небольшой начальный шаг, я надеюсь, что это исследование заложит некоторые философские и концептуальные основы, необходимые для создания машин, которые действительно понимают человеческие цели, планы и ценности», - говорит Сюань. «Этот базовый подход моделирования людей как несовершенных мыслителей кажется очень многообещающим. Теперь он позволяет нам делать выводы, когда планы ошибочны, и, возможно, в конечном итоге позволит нам делать выводы, когда люди придерживаются ошибочных убеждений, предположений и руководящих принципов».


Источник


У данной публикации еще нет комментариев. Хотите начать обсуждение?

Написать комментарий
Имя:*
E-Mail:
Введите код: *
Кликните на изображение чтобы обновить код, если он неразборчив


Поиск по сайту
Полезные ссылки
Оцените работу сайта

TEHNONEWS

Новости космоса технологий нанотехнологий физики и химии