Este clar ca nu mai trebuie sa mearga pe web-ul intunecat pentru a solicita si a impartasi materiale de abuz sexual asupra copiilor (CSAM).

Anul trecut, Facebook a declarat ca a eliminat 8,7 milioane de imagini sexual exploatabile ale copiilor in trei luni. In luna mai a acestui an, Twitter a anuntat ca a suspendat 4.58.989 de conturi pentru incalcari legate de exploatarea sexuala a copiilor pe platforma sa. Si in urma cu sase luni, WhatsApp a spus ca a eliminat 1.30.000 de conturi in 10 zile, care au acordat materiale de abuz sexual asupra copiilor, deseori denumite pornografie infantila.

Este clar ca nu mai trebuie sa mearga pe web-ul intunecat (parte a World Wide Web care nu este indexata si, prin urmare, nu poate fi accesat folosind browsere obisnuite) pentru a solicita si a impartasi materiale de abuz sexual asupra copiilor (CSAM) . De fapt, India este unul dintre cei mai mari contribuitori si consumatori ai CSAM, chiar daca este complet ilegal.

Crearea (reala sau de simulare), precum si stocarea CSAM in scop comercial este ilegala in temeiul Legii privind protectia copiilor impotriva infractiunilor sexuale (POCSO) (sectiunile 13-15). In plus, sectiunea 67B din Legea privind tehnologia informatiei prevede publicarea, precum si schimbul de materiale care infatiseaza un copil intr-un act sexual explicit in forma electronica. Navigarea, descarcarea, publicitatea, promovarea, schimbul si distribuirea acestui material sub orice forma este, de asemenea, interzisa in conditiile legii. Pedeapsa maxima pentru aceste infractiuni este inchisoarea de sapte ani.

Deci, ce determina oamenii sa caute in mod deschis si sa partajeze CSAM?

Interventie tehnologica

Nitish Chandan, un specialist in securitate cibernetica, subliniaza faptul ca, in timp ce pot exista dificultati de reducere la zero a varstei copiilor mai mari in CSAM pe aceste platforme de socializare, exista tehnologie si AI pe care companiile le folosesc pentru a identifica si elimina CSAM, mai ales atunci cand vine la copiii mai mici. Mai mult, Siddharth Pillai din Aarambh, un portal online care lucreaza la siguranta online si combate CSAM online, adauga ca ambiguitatea creste atunci cand miniaturile de pe videoclipuri sau imagini sunt doar sugestive. a ???? Cand vine vorba de CSAM sau imagini explicite cu copii, majoritatea platformelor au o politica de toleranta zero si raspund la rapoarte prompt, a ???? Siddharth observa.

TNM a vorbit in trecut cu WhatsApp si Telegram despre problema CSAM pe platformele lor. Telegram are o optiune dedicata pentru ca utilizatorii sa selecteze daca doresc sa raporteze un grup pentru CSAM. Pe de alta parte, WhatsApp, care nu ofera optiunea de a selecta motivul raportarii catre utilizatori, foloseste o tehnologie numita PhotoDNA precum compania sa mama, Facebook, pentru a identifica imagini sexuale exploatatoare ale copiilor.

Conform site-ului sau web, PhotoDNA creeaza o semnatura digitala unica (cunoscuta sub numele de „???? hash”) a unei imagini care este apoi comparata cu semnaturile (hashes) ale altor fotografii pentru a gasi copii ale aceeasi imagine.a ???? In esenta, WhatsApp scaneaza informatiile necriptate precum imaginea afisata si informatiile de grup pentru a identifica imaginile care sunt exploatabile pentru copii. Daca un utilizator sau un profil de grup extrage o potrivire din baza de date PhotoDNA, WhatsApp interzice incarcatorul si toti membrii grupului.

In mod similar, daca este raportata o fotografie de profil, aceasta este adaugata in baza de date si contul este interzis, iar informatiile sale sunt raportate Centrului National pentru Copii Razuti si Exploatati (NCMEC) din SUA pentru coordonarea lor viitoare cu fortele de ordine. In februarie, India a semnat un MoU cu SUA, care ar permite Biroului National de Inregistrare a Criminalitatii sa acceseze rapoartele disponibile cu NCMEC pentru a elimina CSAM si imagini de exploatare pentru copii.

Cu toate acestea, Nitish subliniaza ca nu exista atat de multe incarcari la baza de date PhotoDNA din India, precum si din tari occidentale, precum SUA. a ???? Aici, daca se descopera CSAM online, fortele de ordine inca nu au un mandat pentru a consulta sau incarca pe PhotoDNA. Nici India nu are propriul sau depozit de imagini.a ????

Mai mult, daca oricare dintre aceste platforme gaseste imagini CSAM sau de exploatare a copiilor, nu exista niciun mandat pentru ei sa afle daca este originar din India sau chiar sa informeze fortele de ordine din India despre aceasta, adauga Nitish.

Cerere pentru CSAM din cauza lipsei de constientizare, de descurajare

Siddharth si Nitish sunt de acord ca, ca orice altceva, CSAM continua sa persiste din cauza cererii mari. In cercetarile sale, Nitish a descoperit ca oamenii nu s-au deranjat nici macar sa-si mascheze numerele sau fotografiile de profil in timp ce au cerut „???? cpa ???? sau porno pentru copii pe grupurile WhatsApp si Telegram.

Se pare ca oamenii nu stiu ca solicitarea, descarcarea si stocarea CSAM este, de asemenea, ilegala. Daca oamenii ar fi constienti, ei nu ar folosi numarul lor real incepand cu +91 si vor afisa fetele si identificatorii personali in fotografiile afisate. Este posibil sa se simta ca nu fac nimic gresit prin descarcare, vizualizare sau redirectionare, deoarece nu fac rau copilului, „???? Zice Nitish.

In plus, cererea pentru CSAM este foarte reala. Aarambh, care permite oamenilor sa raporteze CSAM pe site-ul sau, a constatat ca in 70% cazuri raportate, videoclipurile prezentau in mod clar copii sub 10 ani. a ???? Nu mai exista o scuza ca copiii aratau mai in varsta, iar oamenii le-ar fi putut confunda ca au peste 18 ani, ??? Siddharth spune.

De asemenea, stim foarte putin despre identitatea persoanelor care creeaza cererea pentru CSAM, adauga el.

escorte valencia http://www.mbdrew.com/__media__/js/netsoltrademark.php?d=sexoral.ro/
escorte plaza mall http://www.aristeas.com/__media__/js/netsoltrademark.php?d=sexoral.ro/
publi24 escorte cluj http://warfarenet.net/__media__/js/netsoltrademark.php?d=sexoral.ro/
publi 24 escorte cluj napoca http://www.cauvery.biz/__media__/js/netsoltrademark.php?d=sexoral.ro/escorte/bucuresti/lahovari
escorte constannta http://www.nafa.net.au/process/Redirect?url=https://sexoral.ro/escorte/bucuresti/libertatii
escorte mature vaslui http://openorg.com/__media__/js/netsoltrademark.php?d=sexoral.ro/escorte/bucuresti/liviu-rebreanu
escorte super http://advancedwatersystems.com/__media__/js/netsoltrademark.php?d=sexoral.ro/escorte/bucuresti/lizeanu
escorte bix http://falsepositive.inout.com/__media__/js/netsoltrademark.php?d=sexoral.ro/escorte/bucuresti/lucretiu-patrascanu
escorte sex focsani http://nuzhenuzhin.ru/redirect?url=https://sexoral.ro/escorte/bucuresti/lujerului
escorte bucuresti lujerului http://zeus-technology.com/__media__/js/netsoltrademark.php?d=sexoral.ro/escorte/bucuresti/macaralei
anunturi escorte gay http://esecurity.com/__media__/js/netsoltrademark.php?d=sexoral.ro/escorte/bucuresti/magheru
escorte baile herculane http://tdpropertygroup.com/__media__/js/netsoltrademark.php?d=sexoral.ro/escorte/bucuresti/magurele

a ???? Cine sunt cei care creeaza si distribuie cel mai mult CSAM? Cine sunt cei care o cer? Sunt constienti de lege? Stim foarte putin, „???? Siddharth observa. Nitish considera ca intelegerea cui sunt acesti oameni ar putea ajuta, dar ar trebui sa fie o ancheta si un studiu comandat de guvern care implica aplicarea legii. Acestea fiind spuse, pur si simplu sensibilizarea nu este suficienta ??? trebuie sa fie o descurajare, sustine el.

a ???? In SUA, odata ce NCMEC este informat despre un utilizator care partajeaza CSAM, acestia informeaza fortele de ordine locale si apoi se iau masuri. De ce nu putem avea asa ceva aici? el spune. Prin acest sfat, daca, sa zicem, fortele de ordine decid sa investigheze un singur grup de partajare CSAM, chiar daca actiunile intreprinse impotriva celor care nu stiu ca solicitarea si descarcarea CSAM – spre deosebire de cele care creeaza si furnizeaza CSAM – nu sunt foarte dure, stirile despre acelasi lucru ar face oamenii constienti si ar actiona ca un element de descurajare.  

De asemenea, nu ajuta companiile respective ??? doar accentul este eliminarea continutului CSAM si a exploatarii copiilor din domeniile lor. a ???? Tot ce se intampla este ca platformele elimina acele imagini si videoclipuri si / sau suspenda acele conturi. Dar unde este responsabilitatea si descurajarea acolo? Oamenii pot pur si simplu trece pe alte platforme care ofera mai mult anonimat, mai multa confidentialitate. Curatarea unui site web nu este un raspuns, „???? Siddharth sustine.

Confidentialitate si interventie

O dezbatere care continua sa apara pe probleme precum acestea este importanta mentinerii confidentialitatii digitale fata de interventia guvernului pentru a aborda probleme sociale, precum CSAM. In special cu WhatsApp, Telegram si alte aplicatii care furnizeaza criptare end-to-end, este imposibil sa interceptati continutul CSAM in mesaje decat daca este raportat de o terta parte.

Desi nu exista raspunsuri usoare la acest aspect, Nitish spune ca, daca trebuie sa existe o interventie guvernamentala, trebuie sa existe un proces adecvat. a ???? Problema compromisului apare deoarece guvernul este mult mai puternic. Dar daca interceptarea trebuie sa se intample la un moment dat, intrebarile de luat in considerare sunt cauzele probabile ale acesteia? Ce agentii pot fi autorizate? Si care este procesul si circumstantele in care poate fi realizat? A ????