Кога машината ќе погреши: Казна затоа што вештачката интелигенција проценила дека зборува на телефон додека вози

Холанѓанец е казнет со 380 евра откако камера со вештачка интелигенција го фатила како зборува на телефон додека вози. Сепак, тој тврди дека само си ја чешал главата.

На крајот на минатата година, поточно во ноември минатата година, Тим Хансен беше казнет затоа што наводно зборувал на мобилен телефон додека возел еден месец порано.

Тој, како што вели, бил шокиран, главно затоа што не се сеќавал дека го користел телефонот додека возел тој ден, па решил да ја провери фотографијата од автомобилот на „Централната агенција за судска наплата“, пренесува Одиту сентрал (Oddity central). .

На прв поглед се чини дека Тим навистина зборува на својот телефон, но повнимателниот поглед открива дека тој всушност не држи ништо во раката. Тој едноставно ја чешаше главата во пределот веднаш над слепоочницата, а камерата ја замени положбата на неговата рака држејќи го телефонот. Она што е уште позбунувачки е тоа што човекот кој ја проверил фотографијата си ја потврдил казната без да забележи дека наводниот сторител е „лажно позитива“, односно дека не држи ништо во рака.

Меѓутоа, Хансен е програма која создава алгоритми кои ги уредуваат и анализираат сликите, па го искористил своето лично искуство за да објасни како функционира системот за полициска камера Monocam и зошто може да прави грешки.

Иако самиот не можеше да го тестира полицискиот Monocam, тој објасни како системот е дизајниран да работи и зошто може да произведе лажни позитиви.

„Ако моделот треба да предвиди дали нешто е „да“ или „не“, секако може да се случи и моделот да не е во ред. Во случајот со мојата казна, манекенката ме покажа како го држам телефонот, што не е случај. Тогаш зборуваме за лажно позитивно. Совршен модел предвидува само вистински позитивни и вистински негативни, но 100% точно предвидување е ретко“.

Овој ИТ специјалист објасни дека таквите системи треба да се обучуваат со голем број слики во две или три групи: комплет за обука, сет за валидација и тест сет.

Првиот сет се користи за да го научи алгоритмот кои објекти се наоѓаат во кои слики и кои својства како што се боите, линиите им припаѓаат на нив, вториот за оптимизирање на одреден број на параметри на алгоритмот и третиот за тестирање колку добро функционира системот.

„Алгоритмот што го користевме, како и оној од полицијата, може да се посомневаме дека телефонот е присутен бидејќи сетот со податоци за обука содржи многу примери на луѓе кои се јавуваат со телефонот во рака до увото“, рече Тим.

„Можеби сетот за обука содржи малку или воопшто нема фотографии од луѓе кои седат со празни раце на клупа. Во овој случај, за алгоритмот станува помалку важно дали телефонот навистина се држи во рака, но доволно е ако раката е блиску до увото. За да се подобри ова, треба да се додадат повеќе фотографии каде што раката е празна“.

Хансен тврди дека поради многуте променливи кои можат да влијаат на одлуката на алгоритмот, потребен е човечки филтер за да се намали бројот на лажни позитиви. Меѓутоа, во неговиот случај исто така се покажа дека човечкиот фактор потфрлил, веројатно поради недостаток на внимание и прекумерна доверба во машината.

Само во неговиот случај казната ја потврдил маж откако ја анализирал фотографијата направена од камерата. така да и тоа не е сигурно решение.