Новости космоса и технологий. » Технологии » Этика искусственного интеллекта

Этика искусственного интеллекта

Опубликовал: Admin, 27-10-2021, 23:12, Технологии, 6, 0

Этика искусственного интеллекта

Маура Р. Гроссман, доктор медицинских наук, доктор философии, является профессором-исследователем в Школе компьютерных наук Черитон, адъюнкт-профессором юридической школы Осгуд Холл и членом-преподавателем Института искусственного интеллекта Vector. Она также является директором Maura Grossman Law, юридической и консалтинговой фирмы в области электронных данных в Буффало, штат Нью-Йорк.

Маура наиболее известна своей работой над технологической проверкой, подходом к контролируемому машинному обучению, который она и ее коллега, профессор компьютерных наук Гордон В. Кормак разработали для ускорения проверки документов в тяжбах с высокими ставками. Она преподает курс «Искусственный интеллект: право, этика и политика» для аспирантов по информатике в Ватерлоо и студентов юридических факультетов в Осгуде, а также семинар по этике, необходимый для всех студентов магистерских программ в искусственный интеллект и наука о данных в Ватерлоо.

Что такое ИИ?

Искусственный интеллект - это обобщающий термин, впервые использованный на конференции в Дартмуте в 1956 году. ИИ означает компьютеры, выполняющие интеллектуальные вещи - выполнение когнитивных задач, таких как мышление, рассуждение и прогнозирование, - которые когда-то считались исключительной сферой деятельности людей. Это не отдельная технология или функция.

Как правило, ИИ включает алгоритмы, машинное обучение и обработку естественного языка. Под алгоритмами мы понимаем просто набор правил для решения проблемы или выполнения задачи.

По сути, существует два типа ИИ, хотя некоторые считают, что их три. Первый - узкий или слабый ИИ. Такой ИИ выполняет некоторые задачи не хуже, если не лучше, чем человек. Сегодня у нас есть технология искусственного интеллекта, которая может считывать МРТ точнее, чем рентгенолог. В моей области права у нас есть проверка с помощью технологий - искусственный интеллект, который может найти юридические доказательства быстрее и точнее, чем юрист. Другими примерами являются программы, которые играют в шахматы или AlphaGo лучше, чем лучшие игроки.

Второй тип - общий или сильный ИИ; такой ИИ мог бы делать большинство, если не все, лучше, чем мог бы человек. Такого типа ИИ еще не существует, и ведутся споры о том, будет ли у нас когда-нибудь сильный ИИ. Третий тип - это сверхразумный ИИ, и он больше относится к сфере научной фантастики. Этот тип ИИ намного превзойдет все, что могут сделать люди во многих областях. Это явно противоречиво, хотя некоторые видят в этом надвигающуюся экзистенциальную угрозу.

Где используется ИИ?

ИИ используется в бесчисленных областях.

В здравоохранении ИИ используется для обнаружения опухолей при МРТ, диагностики заболеваний иназначить лечение. В образовании ИИ может оценивать работу учителей. На транспорте он используется в автономных транспортных средствах, дронах и логистике. В банковском деле это определение того, кто получит ипотеку. В финансах он используется для обнаружения мошенничества. Правоохранительные органы используют ИИ для распознавания лиц. Правительства используют ИИ для определения выгод. По закону ИИ можно использовать для проверки записок, составленных сторонами, и поиска недостающих ссылок на дела.

ИИ стал неотъемлемой частью общества, и его использование практически безгранично.

Что такое этический ИИ?

ИИ неэтичен, как неэтична отвертка или молоток. ИИ может использоваться этичным или неэтичным образом. Однако ИИ поднимает несколько этических вопросов.

Системы ИИ учатся на прошлых данных и применяют полученные знания к новым данным. Смещение может закрасться, если старые данные, которые использовались для обучения алгоритм не является репрезентативным или имеет системную предвзятость. Если вы создаете алгоритм обнаружения рака кожи и большая часть обучающих данных была собрана у белых мужчин, это не будет хорошим предиктором рака кожи у чернокожих женщин. Предвзятые данные приводят к необъективным прогнозам.

То, как функции взвешиваются в алгоритмах, также может создавать предвзятость. А то, как разработчик, создающий алгоритм, видит мир и что этот человек считает важным - какие функции включить, какие функции исключить, - может внести предвзятость. То, как интерпретируется результат алгоритма, также может быть предвзятым.

Как регулировался ИИ, если вообще регулировался?

До сих пор в большинстве случаев регулирование осуществлялось с помощью «мягкого закона» - этических указаний, принципов и добровольных стандартов. Существуют тысячи мягких законов, некоторые из которых были разработаны корпорациями, отраслевыми группами и профессиональными ассоциациями. Как правило, существует значительный консенсус относительно того, что можно считать правильным или приемлемым использованием ИИ - например, ИИ не должен использоваться во вредных целях для увековечения предвзятости, ИИ должен иметь некоторую степень прозрачности и объяснимости, он должен быть действительны и надежны по своему прямому назначению.

Наиболее комплексные на сегодняшний день усилия по созданию закона, регулирующего ИИ, были предложены в апреле 2021 года Европейским союзом. Этот законопроект ЕС является первым всеобъемлющим постановлением об искусственном интеллекте. Он классифицирует ИИ по категориям риска. Некоторые виды использования ИИ считаются неприемлемо высоким риском, и, как правило, это такие вещи, как использование ИИ для психологического манипулирования людьми. Еще одно запрещенное использование - это ИИ для определения социальных показателей, когда за человеком наблюдают и получают баллы за то, что он делает что-то желаемое, и теряют баллы, если он делает что-то нежелательное. Третье запрещенное использование - биометрическое наблюдение в реальном времени.

Следующая категория - это инструменты искусственного интеллекта высокого риска, подобные тем, которые используются в медицине и беспилотных автомобилях. Компания должна выполнять всевозможные требования, проводить оценку рисков, вести учет и т. Д., Прежде чем можно будет использовать такой ИИ. Кроме того, существуют варианты использования с низким уровнем риска, например веб-чат-боты, которые отвечают на вопросы. Такой ИИ требует прозрачности и раскрытия информации, но не более того.

Может ли ИИ соответствовать человеческим ценностям или социальным ожиданиям?

Очень сложно научить алгоритм быть справедливым, если мы с вами не можем прийти к согласию по определению справедливости. Вы можете подумать, что справедливость означает, что алгоритм должен относиться ко всем одинаково. Я могу поверить в эту справедливостьозначает достижение справедливости или компенсацию прошлой несправедливости.

Наши человеческие ценности, культурные традиции и социальные ожидания часто различаются, поэтому сложно определить, какой алгоритм следует оптимизировать. У нас пока просто нет консенсуса.

В машинном обучении мы часто не знаем, что делает система для принятия решений. Важны ли в ИИ прозрачность и объяснимость?

На этот вопрос сложно ответить. Определенно есть что сказать о прозрачности и объяснимости, но во многих обстоятельствах может быть достаточно, если ИИ был протестирован достаточно, чтобы показать, что он работает по своему прямому назначению. Если врач прописывает лекарство, биохимический механизм действия может быть неизвестен, но если в ходе клинических испытаний было доказано, что лекарство безопасно и эффективно, этого может быть достаточно.

Другой способ взглянуть на это: если мы решим использовать менее сложный ИИ, который нам легче объяснить, но он не будет таким точным и надежным, как более непрозрачный алгоритм, будет ли это приемлемым компромиссом? От какой точности мы готовы отказаться, чтобы добиться большей прозрачности и объяснимости?

Это может зависеть от того, для чего используется алгоритм. Если его используют, чтобы приговаривать людей, возможно, объяснимый ИИ имеет большее значение. В других областях, возможно, более важным критерием является точность. Все сводится к оценочному суждению.


Источник


У данной публикации еще нет комментариев. Хотите начать обсуждение?

Написать комментарий
Имя:*
E-Mail:
Введите код: *
Кликните на изображение чтобы обновить код, если он неразборчив


Поиск по сайту
Полезные ссылки
Оцените работу сайта

TEHNONEWS

Новости космоса технологий нанотехнологий физики и химии