• Вы находитесь тут:
  • Bad Android
  • Блоги
  • Боты создают собственные стереотипы

Боты создают собственные стереотипы

Искусственный интеллект может развиваться и без предварительного воздействия человеческих предубеждений. Компьютерные симуляции с умными ботами свидетельствуют: компьютерный разум перенимает предвзятое поведение, наблюдая за другими машинами и копируя их действия.

Искусственный интеллект

Таким образом возникает динамика, известная и в человеческом сообществе, говорят ученые на сайте Кардиффского университета.

Компьютерные системы, которые подражают человеческому интеллекту, наделенные невероятными умениями: мозг машины самостоятельно способен проанализировать язык, картинки и тексты, он может даже их создавать. Кроме того, машины учатся друг у друга и с легкостью справляются со сложными задачами. Со временем в нашей повседневной жизни все больше задач будет выполнять искусственный интеллект (ИИ).

И сейчас вырисовывается проблема: учитывая то, что свои умения эти системы часто усваивали на основании данных, которые предоставил человек, они перенимали человеческие предубеждения. В результате развивается, в частности, расистский или сексистский ум.

Но мало того: недавно ученые доказали, что искусственный интеллект может развивать собственные стереотипы и без нашего, человеческого, воздействия.

Для своего исследования Роджер Уитакер и его коллеги из Кардиффского университета с помощью компьютерной симуляции проанализировали, как возникают и набирают обороты предубеждения.

В своей модели они объединили 100 умных ботов в игре «дать-взять», в которой машины отдавали деньги кому-то из команды или участнику за пределами собственной группы. Кого выбрать, виртуальные субъекты решали на основании собственной игровой стратегии и репутации других индивидов.

Кто с кем взаимодействовал, а кого лишали пожертвований?

«Осуществляя эту симуляцию тысячи раз, мы смогли распознать, как может развиваться предубеждения относительно другого и какие условия этому способствуют», — пояснил Уитакер.

Результаты показали: чем дольше ученые осуществляли симуляцию, тем предвзятыми становились боты. Со временем у них появлялась тенденция все чаще лишать денег субъектов из других групп и обмениваться исключительно в пределах собственной группы.

Коротко говоря: работы все сильнее развивали предубеждения относительно «других». При этом Уитакер с коллегами заметил: умные боты приспосабливали свои игровые стратегии, копируя других участников — тех, что в кратчайший срок собрали больше всего денег, то есть самых успешных.

Так возникают группы участников, которые ведут себя подобно и, как следствие, отмежевываются от не связанных с ними субъектами. Особенно высоким уровень предубеждений был тогда, когда вместо большого количества групп внутри виртуальной популяции существовало скорее немного.

Боты научились своей предвзятости сугубо из-за копирования других компьютерных мозгов. «Это доказывает, что для развития предубеждений не нужны высшие когнитивные способности», — написали ученые. По их мнению, очевидно: искусственный интеллект не требует никаких данных, сделанных человеком, чтобы стать предвзятым — достаточно того, чтобы его окружали другие машины.

«Немало ИИ-разработок основывается на автономии и самоконтроле. Это означает: поведение таких машин будет также влиять на поведение других машин вокруг. Наше исследование демонстрирует, что теоретически может произойти с актерами, которые регулярно зависят от чужих ресурсов, — констатирует Уитакер. — Так мы доказали, что коллективный интеллект разумных машин потенциально уязвим к явлению, не чужого и для человеческой среды», — констатирует команда.

0

Комментарии


Чтобы оставить комментарий, пожалуйста, авторизируйтесь!
  • Вы находитесь тут:
  • Bad Android
  • Блоги
  • Боты создают собственные стереотипы
  • Вы находитесь тут:
  • Bad Android
  • Блоги
  • Боты создают собственные стереотипы