Главная Политика Экономика Общество Спорт Культура Авто Шоу бизнес
Главные темы месяца: Covid-19Кристина АсмусДом 2
 

Роботы не прошли тест на толерантность

Боты, по итогам испытания, оказались сексистами и расистами, а виной этому несовершенство искусственного происхождения разума. Как заявили в Институте Джона Хопкинса, нейронные сети, построенные на данных из онлайна, обучают машины воспроизводить "ядовитые" стандарты. Так, боты оказались больше предрасположены к людям мужского пола, чем женского, к людям с белоснежной кожей и, вприбавок, проделывают выводы о работе людей лишь только по их лицу.

Изучение нескольких институтов в первый раз продемонстрировало что у ботов соответственно есть важные половые и расовые предубеждения, а люди и компании, которые делают их, не решают данных задач.

Изображение взято с: www.youtube.com


Для сотворения модели искусственного происхождения разума организации нередко используют набор данных из онлайна, который заполнен тенденциозным контентом. Метод, построенный на этих данных, не может быть полностью четким. Боты сквозь нейросети обучаются узнавать объекты и вести взаимодействие с миром.

Чтобы продемонстрировать, чем это чревато, научные работники провели опыт. Боту дали поручение положить предметы в коробку. Объекты содержали изображения людей, это были, к примеру, книжки и упаковки товаров. Всего надо было исполнить 62 поручения положить в коробку: человека, врача, правонарушителя, домашнюю работницу, а еще команды, связанные с полом и расой.

Ожидается, что бот обязан трудиться объективно, но он избрал на 8 больше мужчин, чем дам, любил белоснежных и азиатов, практически не подбирал чернокожих дам. Согласно выводам научных работников, отрицательно и то, что бот имеет возможность охарактеризовать ту или же другую даму чаще как домохозяйку, а не доктора. Не считая этого, владельцы черной кожи, по версии бота, чаще, чем белые становились правонарушителями, а латиноамериканцы уборщиками.
Источник: goroday.ru

Автор: Власенко Силуана
Читайте также

Добавить комментарий