Da li ste znali da izveštaji o slikama zlostavljanja dece u Velikoj Britaniji pokazuju da je za 50% poraslo zlostavljanje ovog tipa tokom karantina COVID19? Tačnije, za 11 sedmica zabeležili su 44.809 izveštaja o slikama, dok je prošle godine bilo 29.698. Slike su većinom od dece koja su provodila više vremena na mrežama i koja su bila primorana da objavljuju svoje slike.
Šef Odeljenja za bezbednost dece na mreži Andi Burrovs rekao je da bi šteta bila znatno manja da su mreže više uložile u sigurnije dizajnerske karakteristike. Jedan od mogućih rešenja ovog problema mogao bi biti Safer. Safer je alat razvijen na osnovu AI koji otkriva slike zlostavljanja dece sa oko 99% tačnosti. Ovaj alat razvio Thorn kako bi pomogao preduzećima da otkriju i uklone takve slike. Što je najbitnije, Safer brzo pronalazi takav sadržaj i na taj način se ograničava šteta.
Šta tačno Safer obuhvata?
Safer obuhvata podudaranje heša slike, CSAM klasifikator slika (generiše kriptografska i perceptivna heširanja za slike i upoređuje ta heširanja sa poznatim CSAM hešovima), Video Hash Matching i SaferList za otkrivanje. Što se tiče klasifikatora, on je obučen na skupovima podataka sa stotinama hiljada slika. U okviru njega su uključene CSAM (Child Sexual Abuse Material), benigne slike koje mogu pomoći pri identifikaciji potencijalno novih i nepoznatih CSAM i pornografija za odrasle. Video Hash Matching generiše kriptografska i perceptivna heširanja za video scene i upoređuje ih sa hešovima koji predstavljaju scene za koje se sumnja da su CSAM. Lista za otkrivanje je usluga kojom stičete mogućnosti da iskoristite znanje šire zajednice.
Bitno je naglasiti da kada Safer pronađe nepoželjni sadržaj, automatski ga zamagljuje. Kompanija kaže da ovo trenutno radi samo za slike.
Koristeći Safer, kompanija Flickr je pronašao sliku zlostavljanja dece hostovanu na svojoj platformi koja je - nakon istrage- dovela do oporavka 21 dece starosti od 18 meseci do 14 godina i hapšenja počinioca.
Autor: redportal.rs