НОВИНИ ОТ ARTPRICE.BG
Водеща онлайн база данни ще премахне 600 000 изображения след като арт проект разкрива расистките й пристрастия (24.09.2019)
 ImageNet, една от най-големите публично достъпни онлайн бази данни със снимки, обяви, че ще премахне 600 000 изображения на хора, съхранявани в нейната система. Новината идва след старта на онлайн проект на художника Тревър Паглен и изследователката по изкуствен интелект Кейт Крофорд, която разкри тревожните и често расистки начини, по които изкуственият интелект, използван от ImageNet, категоризира хората.

ImageNet  Roulette на Паглен и Крауфорд нашумя през този месец, когато потребителите качиха свои снимки, които след това бяха класифицирани по технологията ImageNet.

Докато белите хора редовно получават необичайни длъжностни характеристики, например един редактор на Verge, бил категоризиран като „пушач на лула“ и „стюардеса", за хората от различен цвят, технологията е много по-злокобна. Например, потребителите на социалните медии съобщават, че са били описани с расистки обиди и други силно обидни термини.

Тъй като базата данни е широко използвана за обучение на машини как да „виждат“, а правоприлагащите органи, частните работодатели и училищата в САЩ все по-често използват технологии за разпознаване на лица за целите на сигурността, последиците са широкообхватни.

„С напредването на AI технологията и навлизането й от научноизследователската лаборатория в ежедневието на хората, гарантирането, че AI системите дават подходящи и достоверни резултати, се превръща във важен научен въпрос“, казват от  ImageNet в изявление, публикувано на своя уебсайт.

Въпреки че изявлението не се отнася до проекта за онлайн изкуство на Паглен и Крауфорд, то е публикувано само пет дни след откриването на изложбата „Training Humans“ в обсерваторията на Fondazione Prada в Милано (до 24 февруари 2020 г.), което привлече внимание към ImageNet.

„Тази изложба показва как тези изображения са част от дългогодишната традиция за заснемане на образи на хора без тяхното съгласие, за да се класифицират, сегментират и често стереотипизират по начини, които напомнят колониални проекти от миналото“, казва Паглен.

ImageNet е създаден през 2009 г. от изследователи от университетите в Принстън и Станфорд. Тя сглобява“ колекцията си от снимки на хора, като ги извлича от интернет сайтове като Flickr. След това те са категоризирани от складови работници на Amazon Mechanical. Предразсъдъците и пристрастията на тези нископлатени работници, неизбежно се отразяват в системата за изкуствен интелект, за чието създаване те помагат.

От ImageNet заявиха, че през последната година „провежда изследователски проект за систематично идентифициране и коригиране на проблемите свързани с достоверността, произтичащи от процеса на събиране на данни“. Те са идентифицирали 438 категории хора в своята база данни, които са „опасни“, дефинирани като „обидни, независимо от контекста“.  Други 1155 етикета са „чувствителни“ или потенциално обидни, в зависимост от контекста, в който се използват. Всички изображения, свързани с тези категоризации, вече се премахват от базата данни.

В отговор на съобщението на ImageNet, Паглен и Крауфорд заявиха, че ImageNet Roulette е „постигнала целите си“ и вече няма да бъде достъпна онлайн след петък, 27 септември.

ImageNet Roulette стартира по-рано тази година като част от по-обширен проект, за да привлече вниманието към нещата, които могат и редовно се объркват, когато моделите за изкуствен интелект се обучават по проблемни данни“, пише дуетът на уебсайта на проекта.

„Създадохме ImageNet Roulette като провокация: тя действа като прозорец чрез някои от расистките, жестоки и просто абсурдни категоризации, вградени в ImageNet. Тя позволява набора от обучители „да говорят сам за себе си“ и по този начин подчертава защо класифицирането на хората по този начин е в най-добрия случай ненаучно и в най-лошия случай дълбоко вредно.

Изследователският екип, отговорен за ImageNet обяви, че след десет години ще премахнат половината от 1,5 милиона изображения в категорията„ „човек “.

ImageNet Roulette направи своя принос - вдъхнови обществен разговор за политиката на данните за обучение на AI и се надяваме, че ще действа като призив за действие за общността, за да се справи с потенциалните вреди на класифицирането на хората“.

.
.
.
.
.
.
.
.
 
Други новини от тази категория
Коментари | 0 коментара

Добавете коментар
  Трябва да се регистрирате от ТУК или да се логнете от полетата в дясно, за да пишете коментари

Лична зона
Вход
Регистрирай се безплатно, участвай и ти!
Регистрирайте се в най-големия некомерисиален български сайт за изкуство и ще можете да разглеждате произведения за продажба, подробна информация за автори и търгове. Можете да публикувате произведения за продажба и търгове, да добавяте информация за автори.
Регистрирай се сега!
Електронeн бюлетин
Запишете се в бюлетина на ArtPrice.bg за да получавате винаги актуална информация, директно на Вашия имейл!