ImageNet Roulette на Паглен и Крауфорд нашумя през този месец, когато потребителите качиха свои снимки, които след това бяха класифицирани по технологията ImageNet.
Докато белите хора редовно получават необичайни длъжностни характеристики, например един редактор на Verge, бил категоризиран като „пушач на лула“ и „стюардеса", за хората от различен цвят, технологията е много по-злокобна. Например, потребителите на социалните медии съобщават, че са били описани с расистки обиди и други силно обидни термини.
Тъй като базата данни е широко използвана за обучение на машини как да „виждат“, а правоприлагащите органи, частните работодатели и училищата в САЩ все по-често използват технологии за разпознаване на лица за целите на сигурността, последиците са широкообхватни.
„С напредването на AI технологията и навлизането й от научноизследователската лаборатория в ежедневието на хората, гарантирането, че AI системите дават подходящи и достоверни резултати, се превръща във важен научен въпрос“, казват от ImageNet в изявление, публикувано на своя уебсайт.
Въпреки че изявлението не се отнася до проекта за онлайн изкуство на Паглен и Крауфорд, то е публикувано само пет дни след откриването на изложбата „Training Humans“ в обсерваторията на Fondazione Prada в Милано (до 24 февруари 2020 г.), което привлече внимание към ImageNet.
„Тази изложба показва как тези изображения са част от дългогодишната традиция за заснемане на образи на хора без тяхното съгласие, за да се класифицират, сегментират и често стереотипизират по начини, които напомнят колониални проекти от миналото“, казва Паглен.
ImageNet е създаден през 2009 г. от изследователи от университетите в Принстън и Станфорд. Тя „сглобява“ колекцията си от снимки на хора, като ги извлича от интернет сайтове като Flickr. След това те са категоризирани от складови работници на Amazon Mechanical. Предразсъдъците и пристрастията на тези нископлатени работници, неизбежно се отразяват в системата за изкуствен интелект, за чието създаване те помагат.
От ImageNet заявиха, че през последната година „провежда изследователски проект за систематично идентифициране и коригиране на проблемите свързани с достоверността, произтичащи от процеса на събиране на данни“. Те са идентифицирали 438 категории хора в своята база данни, които са „опасни“, дефинирани като „обидни, независимо от контекста“. Други 1155 етикета са „чувствителни“ или потенциално обидни, в зависимост от контекста, в който се използват. Всички изображения, свързани с тези категоризации, вече се премахват от базата данни.
В отговор на съобщението на ImageNet, Паглен и Крауфорд заявиха, че ImageNet Roulette е „постигнала целите си“ и вече няма да бъде достъпна онлайн след петък, 27 септември.
„ImageNet Roulette стартира по-рано тази година като част от по-обширен проект, за да привлече вниманието към нещата, които могат и редовно се объркват, когато моделите за изкуствен интелект се обучават по проблемни данни“, пише дуетът на уебсайта на проекта.
„Създадохме ImageNet Roulette като провокация: тя действа като прозорец чрез някои от расистките, жестоки и просто абсурдни категоризации, вградени в ImageNet. Тя позволява набора от обучители „да говорят сам за себе си“ и по този начин подчертава защо класифицирането на хората по този начин е в най-добрия случай ненаучно и в най-лошия случай дълбоко вредно. “
Изследователският екип, отговорен за ImageNet обяви, че след десет години ще премахнат половината от 1,5 милиона изображения в категорията„ „човек “.
„ImageNet Roulette направи своя принос - вдъхнови обществен разговор за политиката на данните за обучение на AI и се надяваме, че ще действа като призив за действие за общността, за да се справи с потенциалните вреди на класифицирането на хората“.
Посмъртната маска на Егон Шиле бе продадена за рекордна цена на търг. Ai-Da, хуманоидният робот художник също надмина очакванията
Испански художник изненада столичани със стенопис на тема "Витоша"
Бой Джордж дебютира със свои произведения на изкуството
Скандалният банан на Маурицио Кателан ще бъде продаден в Sotheby’s. Оценката е 1 милион долара
Добавете коментар