Предвзятый компьютер: Жертву в преступника может превратить искусственный интеллект - «Новости»

  • 20:04, 06-июн-2019
  • Интернет / Мнения / Статистика / Новости дня
  • Мстислава
  • 0

Ложное обвинение программы по распознаванию лиц может разрушить жизнь невинного человека.





Человечество очень рискует, доверяя машинам свою безопасность. Современный мир без них обойтись не может, но там, где дело касается преступления и наказания, искусственный интеллект может стать врагом справедливости. Машины допускают ошибки, так же как люди. Но что делать если искусственный разум готов превратить жертву в преступника и на его мнение будут полагаться те, кто нас защищает?


Недавно в Интернете появилась жуткая история 18-летнего парня, который якобы воровал технику в магазинах Apple. Его «узнала» система распознавания лиц, но это оказалось ошибкой, юноша смог предоставить «железное» алиби и выставил Apple иск на 1 млрд долл.


Как ИИ мог ошибиться разбирался Аркадий Сандлер, руководитель Центра искусственного интеллекта МТС, где создаются и внедряются подобные инновации. Эксперт сообщил, что для системы распознавания лиц высокой может считаться корректность 98%. Этого достаточно, чтобы точно определить личность человека, но есть 2%, которым не повезет.


Ошибиться мог бы и человек, что также привело бы к судебным разбирательствам, но к несовершенству людей мы готовы, а предвзятый компьютер – это уж слишком. В первом случае за несправедливое обвинение перед человеком извинятся и предложат утешительный бонус, а во втором – иск на 1 млрд не предел.


В настоящее время, идентификацию лиц вводят, чтобы сделать общественные места безопасней, особенно это актуально для аэропортов. Но, любое технологическое благо всегда сопряжено в риском и главная задача разработчиков усовершенствовать ИИ настолько, чтобы он не был опасен для человека. В любом случае, всегда должен быть тот, кто должен будет ответить за ошибку машины.


Ложное обвинение программы по распознаванию лиц может разрушить жизнь невинного человека. Человечество очень рискует, доверяя машинам свою безопасность. Современный мир без них обойтись не может, но там, где дело касается преступления и наказания, искусственный интеллект может стать врагом справедливости. Машины допускают ошибки, так же как люди. Но что делать если искусственный разум готов превратить жертву в преступника и на его мнение будут полагаться те, кто нас защищает? Недавно в Интернете появилась жуткая история 18-летнего парня, который якобы воровал технику в магазинах Apple. Его «узнала» система распознавания лиц, но это оказалось ошибкой, юноша смог предоставить «железное» алиби и выставил Apple иск на 1 млрд долл. Как ИИ мог ошибиться разбирался Аркадий Сандлер, руководитель Центра искусственного интеллекта МТС, где создаются и внедряются подобные инновации. Эксперт сообщил, что для системы распознавания лиц высокой может считаться корректность 98%. Этого достаточно, чтобы точно определить личность человека, но есть 2%, которым не повезет. Ошибиться мог бы и человек, что также привело бы к судебным разбирательствам, но к несовершенству людей мы готовы, а предвзятый компьютер – это уж слишком. В первом случае за несправедливое обвинение перед человеком извинятся и предложат утешительный бонус, а во втором – иск на 1 млрд не предел. В настоящее время, идентификацию лиц вводят, чтобы сделать общественные места безопасней, особенно это актуально для аэропортов. Но, любое технологическое благо всегда сопряжено в риском и главная задача разработчиков усовершенствовать ИИ настолько, чтобы он не был опасен для человека. В любом случае, всегда должен быть тот, кто должен будет ответить за ошибку машины.


Рекомендуем


Комментарии (0)

Комментарии для сайта Cackle



Уважаемый посетитель нашего сайта!
Комментарии к данной записи отсутсвуют. Вы можете стать первым!