Interdicţia nu vizează aeroporturile şi nici reglementările la nivel federal. ”Pentru ca tehnologia recunoaşterii faciale să pună în pericol drepturile civile şi libertăţile civice contracarează în mod important aşa-zisele sale benficii”, se subliniază în această hotărâre, în care se arată că această tehnologie ”va exacerba nedreptatea rasială şi ne va ameninţa capacitatea de a trăi liber de orice supraveghere permanentă a Guvernului”.
Această interdicţie se înscrie în cadrul unei reglementări mai vaste a utilizării sistemului de supraveghere şi audit al politicilor în domeniu, prin condiţii mai stricte şi necesitatea unei aprobări prealabile din partea Consiliului cu privire la agenţiile municipale în privinţa acestor sisteme.O măsură similară de interzicere este avută în vedere la Oakland, de cealaltă parte a Golfului San Francisco.
Supravegherea prin recunoaştere facială provoacă anumite temeri legate de riscul ca persoane nevinovate să fie identificate în mod eronat ca infractoare şi ca aceste sisteme să afecteze viaţa privată de zi cu zi.
Însă unii susţinători consideră că aceată tehnologie poate ajuta poliţia în lupta împotriva infracţionalităţii şi în a face străzile mai sigure. Arestarea unor infractori de către poliţie i-a fost atribuită, însă tehnologia este învinovăţită de asemenea de identificări eronate.
”Recunoaşterea facială poate fi folosită în supravegherea generală, în asociere cu camere video publice şi poate fi utilizată în mod pasiv, ea neimplicând necesitatea cunoaşterii, consimţământului sau aderării persoanei vizate”, subliniază Asociaţia Apărării Drepturilor Civice (ACLU) pe site.
”Cel mai mare pericol este ca această tehnologie să fie folosită în sisteme de supraveghere clasice, dincolo de orice bănuială”, insistă ACLU. Potrivit ziarului The New York Times (NYT), autorităţile chineze se folosesc de această tehnologie integrată în vaste reţele de camere de supraveghere în întreaga ţară, pentru a repera membri ai minorităţii musulmane uigure, după ce a fost programată cu caracteristicile lor fizice, pentru a-i căuta doar pe aceştia.
Acesta ar fi primul exemplu cunoscut al folosirii de către un guvern a inteligenţei articiale (AI) cu scopul de a efectua un profilaj rasial.