Гугл ошибочно распознал действия насилия отца над сыном, идентифицируя фотографию
реклама
А что будет, если я вам скажу что Google бесцеремонно вторгается в частную жизнь людей, не спрашивая согласия на такое действие оных. Показательный случай произошел в одном из штатов США, где встревоженный отец рассказал историю о том, как он сделал снимок паховой инфекции своего ребенка на камеру android-телефона, Google пометил полученный снимок как CSAM - материал сексуального насилия над детьми. После этого учетные записи родителя были заблокированы, а на него самого была подана жалоба, после чего было инициировано полицейское расследование.
И в копилку новостей: "подобный" сервис, не отставая от своего конкурента, решил запустить и Apple, все, как говорится, в рамках безопасности детей. Смешно говорить, что участившиеся ворох подобных случаев стирает тонкую грань между признаниями всемирно известной корпорации "о недопустимости разглашения личных данных".
реклама
Официальные представители Google не смогли не прокомментировать вопиющий случай, заявив, что сервис сканирует фотографии пользователя только лишь при включенном пункте разрешения резервного копирования фотографий в свое облако. И поступила согласно федеральному закону, отправив потенциально преступные фотографии "куда следует".
реклама
Лента материалов
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.
Комментарии Правила