Conecte Conosco

Tecnologia

‘Meu rosto, minhas regras’: por que cresce o apelo para banir tecnologias de reconhecimento facial?

A tecnologia de reconhecimento facial ganha espaço no Brasil e no mundo sob a justificativa da segurança. A ferramenta tem gerado protestos e debates sobre seu uso para o controle social. A Sputnik Brasil ouviu especialistas que discutem problemas como soberania de dados, as implicações no racismo e os limites legais envolvidos no tema.

© AP Photo / Mark Schiefelbein

 

O metrô de São Paulo pode ser visto como o centro nervoso da capital paulista, conectando áreas distantes de uma região metropolitana com 20 milhões de habitantes. Estima-se que nas linhas metroviárias da maior cidade do Brasil circulem diariamente quatro milhões de pessoas. Todas elas carregam dados valiosos, como gostos, opiniões e rostos a serem mapeados.
Não à toa, o Metrô de São Paulo resolveu que precisa de um sistema de reconhecimento facial. Em outubro de 2019, foi publicado o resultado da licitação LPI nº 10014557, que destinou mais de R$ 58,6 milhões ao Consórcio Engie Ineo Johnson, formado por empresas de França e Irlanda, para a implementação do Sistema de Monitoramento Eletrônico (SME) para as linhas Azul, Verde e Vermelha do metrô paulista — incluindo um sistema de reconhecimento facial por câmeras.
O Metrô defende que essa é uma forma de garantir mais segurança e facilitar a identificação de suspeitos de crimes e pessoas desaparecidas. Não é o que pensam organizações como Instituto Brasileiro de Defesa do Consumidor (Idec), Artigo 19, Intervozes, Coletivo de Advocacia em Direitos Humanos e as defensorias públicas de São Paulo e da União. Em conjunto, esse grupo pediu à Justiça a suspensão do uso de reconhecimento facial no metrô paulista.
Em março, a juíza Cynthia Thome, da 6ª Vara da Fazenda Pública de São Paulo, acatou o pedido dessas organizações e emitiu decisão impedindo o Metrô de usar o sistema de reconhecimento facial. Para a juíza, a iniciativa é “ilegal e desproporcional”, além de ter potencial de atingir direitos fundamentais. A decisão foi mantida em segunda instância.
Obra de arte entre vagões de trem em movimento na estação Sumaré, linha verde do Metrô, em São Paulo, 19 de setembro de 2018 - Sputnik Brasil, 1920, 25.04.2022
A advogada Eloísa Machado, professora da Fundação Getúlio Vargas (FGV) de São Paulo, foi uma das representantes das organizações na ação civil pública movida contra o Metrô. À Sputnik Brasil, ela critica a implementação massiva da tecnologia e afirma que o sistema que o metrô pretende implementar viola direitos constitucionais brasileiros.

“Não houve qualquer justificativa, por parte do Metrô de São Paulo, para fundamentar o uso massivo de reconhecimento facial em suas estações. Tampouco houve uma informação clara sobre a finalidade específica do tratamento de dados pessoais biométricos de todos os usuários do metrô, sua destinação, compartilhamento ou armazenamento em banco de dados”, recorda Machado, citando a Lei Geral de Proteção de Dados (LGPD).

De inspiração europeia, a LGPD foi sancionada em 2018 e impõe diretrizes em relação ao tratamento de dados pessoais no Brasil por meio da atuação da Autoridade Nacional de Proteção de Dados (ANPD). Segundo essa legislação, as informações biométricas, que são alvo do reconhecimento facial, são dados pessoais sensíveis, cujo tratamento depende de circunstâncias incluindo o consentimento.
A ação contra o Metrô cita ainda violações ao Código de Defesa do Consumidor, ao Código de Usuários de Serviços Públicos, ao Estatuto da Criança e do Adolescente e até à Constituição, detalha Rafaela Alcântara, assessora de Direitos Digitais da Artigo 19.

“As violações vão desde o direito à privacidade e à proteção de dados até o direito à igualdade e à não discriminação”, afirma Alcântara à Sputnik Brasil, acrescentando que uma indenização de quase R$ 43 milhões foi solicitada na ação devido às violações de direitos dos usuários do metrô.

Alcântara lembra que o tratamento dado às informações colhidas pelo Metrô de São Paulo não foi definido, deixando em dúvida o destino e o uso dos dados. Além da falta de governança e transparência, isso deixa margem para a exploração dos dados, mercadoria cada vez mais valiosa.

“Os dados são ativos econômicos valiosos na atualidade. Eles são o principal insumo de plataformas trilionárias como Google, Facebook, Amazon, entre outras”, afirma à Sputnik Brasil Sergio Amadeu, pesquisador da área de tecnologia e dados e professor da Universidade Federal do ABC (UFABC), acrescentando que, após análise e tratamento, as informações extraídas podem ser usadas para o desenvolvimento de produtos e serviços.

Tecnologia tem problemas, mas avança no país

A coleta massiva de dados pelo uso do reconhecimento facial é uma questão sensível. Um estudo da Universidade Federal de Campina Grande (UFCG) analisou cinco detectores de faces, em um conjunto de 550 mil quadros de vídeo de 365 indivíduos, e reconheceu problemas na detecção de rostos de pessoas do gênero feminino e indivíduos com idades entre 46 e 85 anos. Em quatro dos cinco detectores observados, houve maior risco de falhas com pessoas de pele escura. No caso do Brasil, país de maioria negra, esse fator é um grave componente.
Não é difícil encontrar na mídia casos de falhas da tecnologia. No Piauí, o pedreiro José Domingos Leitão foi preso injustamente, em outubro de 2020, pela Polícia Civil do Distrito Federal após ser identificado de forma errônea pelo reconhecimento facial, relata o portal R7. No Rio de Janeiro, uma mulher inocente foi detida, em julho de 2019, após a mesma tecnologia identificá-la como uma acusada de homicídio e ocultação de cadáver, reporta o portal G1.
Mesmo assim o reconhecimento facial avança rápido no Brasil e já é usado em diversos estados para identificar suspeitos. Segundo mapeamento do projeto O Panóptico, do Centro de Estudos de Segurança e Cidadania (Cesec), pelo menos 13 estados brasileiros fazem uso ou testam o reconhecimento facial para fins de segurança pública. Já um levantamento do jornal Folha de S.Paulo com secretarias estaduais aponta que 20 estados usam ou estão implementando a ferramenta.
Sistema de reconhecimento facial é testado no aeroporto de Congonhas, em São Paulo, 15 de junho de 2021 - Sputnik Brasil, 1920, 25.04.2022
Segundo estudo do Instituto Igarapé, o uso da tecnologia cresce no Brasil ano a ano desde 2011. Um dos casos mais notórios no Brasil é o da Bahia, que desde 2018 prendeu centenas de suspeitos empregando o reconhecimento facial. Em julho de 2021, o governador baiano, Rui Costa (PT), anunciou o Projeto Vídeo Polícia, parceria para a ampliação do uso da tecnologia para 78 municípios e a implementação de milhares de câmeras de reconhecimento facial no estado. A parceria com as empresas Oi e Avantia custou R$ 665 milhões, mostra o Diário Oficial da Bahia.
No Rio de Janeiro, o governo estadual já aplicou o sistema em projeto piloto no qual prendeu 63 pessoas. As empresas envolvidas na implementação da tecnologia no estado incluem a operadora Oi, a britânica Staff of Technology Solutions e a chinesa Huawei. Segundo reportagem do portal G1, há planos para a expansão da tecnologia como parte do programa de segurança pública do governo do estado, Cidade Integrada, um dos carros-chefes do governador fluminense, Cláudio Castro (PL).
O uso de reconhecimento facial no estado é questionado na Assembleia Legislativa do Rio de Janeiro (Alerj) pela deputada Dani Monteiro (Psol), autora do Projeto de Lei Nº 5240/2021, que pede o banimento da tecnologia e cita que no período de uso da ferramenta no estado não houve queda no número de crimes.

Reconhecimento facial pode agravar racismo no Brasil

Para funcionar, o reconhecimento facial se vale de bancos de dados já existentes, como os mantidos pelas polícias ou pelo próprio Banco Nacional de Mandados de Prisão. Esse fator também traz riscos, uma vez que os próprios bancos de imagens policiais no Brasil podem não ser confiáveis.
Há diversos casos de pessoas negras inocentes presas com base em bancos de imagens racialmente enviesados. Recentemente, no Ceará, ganhou notoriedade um caso no qual uma foto do ator negro norte-americano Michael B. Jordan apareceu em uma lista de procurados por uma chacina que deixou cinco mortos no Natal de 2021. Conforme publicou o UOL, a imagem do astro de Hollywood consta nos registros da Polícia Civil do Ceará para o reconhecimento de suspeitos.
O ator norte-americano, Michael B. Jordan, participa de coletiva de imprensa durante o Festival Internacional de Cinema de Toronto, Canadá, em 7 de setembro de 2019 - Sputnik Brasil, 1920, 25.04.2022
Um relatório da Defensoria Pública do Rio de Janeiro (DPRJ) mostra que pelo menos 90 prisões injustas por reconhecimento fotográfico foram registradas no país entre 2012 e 2020, sendo 73 apenas em território fluminense. A maior parte dos casos envolve pessoas negras.
Em seu site, a própria DPRJ destaca o caso de Tiago Vianna Gomes, um homem negro de Nilópolis (RJ) denunciado nove vezes por roubo devido à inclusão de uma foto sua no banco de imagens de suspeitos de uma delegacia local. Em nenhum dos casos Gomes foi considerado definitivamente culpado. Absolvido em sete processos, o homem aguarda a conclusão dos dois restantes.
Existe o temor de que a tecnologia de reconhecimento facial intensifique distorções como essas.

“Apesar da ampla adoção, das biometrias dominantes em uso — impressão digital, íris, palma da mão, voz e rosto —, o reconhecimento facial é o menos preciso, mais racista e o mais problemático em relação à privacidade de dados”, avalia a cientista da computação Nina da Hora em entrevista à Sputnik Brasil.

A pesquisadora e hackerativista, que integra a Comissão de Transparência das Eleições do Tribunal Superior Eleitoral (TSE) para o pleito de 2022, alerta para o crescimento do número de governos usando essa tecnologia. Para ela é necessário “agir agora” para deter esse avanço.

“É preciso entender a preocupação que, a partir do uso e comparação de fotos, há por trás uma visão eugenista — de usar fenótipo para tomar decisões. No Brasil essa percepção já está muito enraizada na sociedade”, aponta a cientista da computação.

O pesquisador Tarcízio Silva, autor do livro “Racismo Algorítmico: Inteligência Artificial e Discriminação nas Redes Digitais” vai na mesma direção e afirma que tecnologias de vigilância tendem a ter grande aceitação no Brasil devido ao racismo.

“Sistemas algorítmicos e tecnologias com qualquer tipo de automatização de processos são muito imprecisas, mas são implementadas a toque de caixa e aceitas socialmente pois as vítimas da violência estatal são sobretudo pessoas negras”, afirma Silva à Sputnik Brasil.

O especialista ressalta que mesmo que a tecnologia fosse mais precisa, o avanço dela no Brasil fortaleceria problemas sociais ligados ao racismo, como o encarceramento em massa. Segundo ele, é dessa forma que age o chamado “racismo algorítmico”, que atravessa técnicas, como a do reconhecimento facial, ao fortalecer relações sociais racialmente desiguais.

“É essencial entender muito além de minúcias de linhas de programação, mas como a promoção acrítica de implementação de tecnologias digitais para ordenação do mundo favorece a reprodução dos desenhos de poder e opressão que já estão em vigor”, diz Tarcízio Silva ao explicar o conceito cunhado pelo autor Anupam Chander, da Universidade de Georgetown, nos EUA.

Silva salienta que mesmo em ambientes com índices muito menores de letalidade policial que os do Brasil, o uso do reconhecimento facial promove excessos. O pesquisador cita uma pesquisa realizada em Londres que mostrou que policiais desrespeitavam protocolos de abordagem após identificações feitas pela tecnologia.
Uma câmera de vigilância instalada no teto da estação de metrô Court Street, em Nova York, EUA, 7 de outubro de 2020 - Sputnik Brasil, 1920, 25.04.2022
Em Buenos Aires, onde o reconhecimento facial é usado desde 2019, há outro exemplo de excessos. Na capital argentina foram colhidos dados de mais de 7,5 milhões de pessoas de forma irregular — quase metade dos habitantes da região metropolitana. O sistema, porém, só estava autorizado a colher dados de pessoas procuradas, publicou o jornal argentino Pagina 12.
A coleta de dados foi ampla o suficiente para identificar até o presidente argentino, Alberto Fernández. O caso de coleta massiva só foi revelado depois de investigação judicial, concluída com a decisão de suspender o sistema.

Banimento do reconhecimento facial

Diante dos problemas complexos e de grandes proporções em torno da tecnologia de reconhecimento facial, cresce um movimento internacional pedindo o banimento do uso dessas ferramentas na segurança pública e no espaço público em geral.
É o caso da campanha Ban the Scan, promovida pela Anistia Internacional, e do manifesto Ban Biometric Surveillance, assinado por dezenas de organizações ao redor do mundo, incluindo 30 do Brasil.

“Acreditamos que a moratória, por ora, e, depois, o consequente banimento são as medidas mais adequadas diante de sistemas massivos de reconhecimento facial ou de outros dados biométricos. O vigilantismo promovido por essas tecnologias, quando usadas indiscriminadamente, é um inimigo de uma sociedade civil livre, criativa e pujante”, aponta a advogada Eloísa Machado, professora da FGV.

A assessora de Direitos Digitais da Artigo 19, Rafaela Alcântara, destaca que a organização acredita que a tecnologia possa ser usada em exceções, mas que como regra deve ser proibida. No caso do uso para vigilância massiva em espaços públicos, a organização defende o banimento.

“Tal posicionamento vem da análise de que esse uso já se mostra, por princípio, incompatível com a proteção dos direitos humanos. De diversas maneiras a vigilância biométrica em massa afeta os direitos humanos”, diz Alcântara.

Para o professor Sergio Amadeu, a moratória é a melhor medida para impedir os riscos de abusos com base no uso do reconhecimento facial e garantir mais controle social sobre a ferramenta.

“No momento, o reconhecimento facial tem servido à discriminação dos segmentos mais fragilizados da população, como os jovens negros da periferia. Acredito que precisamos de uma moratória do uso das tecnologias de reconhecimento facial. Precisamos discutir sua real aplicação, seus vieses, seus reveses e como mantê-las sob o controle democrático da sociedade”, defende Amadeu.

Já o autor e pesquisador Tarcízio Silva reforça que o banimento dessa tecnologia é necessário não só por questões técnicas, mas principalmente pelo risco imposto a todos os cidadãos.

“Não se trata apenas de como a tecnologia erra com mais frequência com grupos minorizados, mas das próprias concepções de segurança pública envolvidas. Hipervigilância não só não diminui o crime, como promove a violência estatal e restringe a liberdade de todos e quaisquer cidadãos através de um clima de suspeição generalizada”, afirma.

Na mesma linha, a cientista da computação Nina da Hora debate o que chama de “solucionismo tecnológico”, que seria a esperança de resolver problemas sociais complexos, como a segurança, apenas com um passe de mágica da tecnologia.

“É a gente olhar para os problemas sociais e estruturais e achar que todos eles serão resolvidos com tecnologia. É como se estivéssemos negligenciando a nossa capacidade como seres humanos, seres pensantes que conseguem promover uma solução. É como se estivéssemos substituindo toda essa percepção humana por máquinas”, conclui.

Até o fechamento desta reportagem, o Metrô de São Paulo não respondeu as perguntas enviadas.

Tecnologia

“Brainrot”, você tem isso? Conheça esse efeito colateral da vida digital

Por

Termo descreve a “deterioração mental” causada por consumir grandes quantidades de conteúdo de baixo valor, como memes e vídeos sem sentido

 

“Brainrot” pode afetar negativamente as habilidades cognitivas das pessoas
Unsplash/Taylor Deas-Melesh

 

Se você leu meu texto sobre a slopficação da internet, talvez agora você fique um pouco mais assustado. Senta que lá vem a história…

A internet está cada vez mais maluca. Na verdade, não a internet, porque ela sempre foi. Mas, a cada dia que passa, eu me surpreendo com o que as pessoas andam fazendo online, principalmente os jovens.

Se você é millennial, como eu, e tinha uma certa esperança que a próxima geração seria melhor e daria conta de um monte de coisas que não conseguimos, bem… nascer e crescer imerso em redes sociais parece que não está fazendo muito bem, pelo menos na construção de gosto e o que se escolhe consumir online.

Entender minimamente a GenZ (Geração Z) e a Geração Alpha tem consumido boa parte do tempo das minhas pesquisas online. Sacar os movimentos e tentar entrar na cabeça dos jovens é interessante e surpreendente, já que os valores e gostos são completamente diferentes. E olha que pra muita coisa eu sou mais Z que Y.

Mas vamos para o que interessa. Você já ouviu ou viu, em algum lugar, termos como:

  • Skibidi Toilet
  • Level Five Gyat
  • Rizz
  • Fanum Tax
  • Only in Ohio
  • Sigma Looksmaxxing
  • Grimace Shake

Parece erro, palavras sem sentido, mas eles têm aparecido com frequência em uma série de conteúdos virais, mais especificamente memes, e que têm sido atribuídos ao tal do “brainrot”. Se você perguntar para o Google Tradutor, não vai conseguir nada. Já para o ChatGPT, ele traz uma luz. Olha só:

ChatGPT oferece definição de termos que têm sido atribuídos ao "brainrot"

ChatGPT oferece definição de termos que têm sido atribuídos ao “brainrot” / Reprodução/ChatGPT

 

Acho que, com isso, você já consegue ir sacando o que é “brainrot”. Apesar desse termo ser antigo (usado desde 2004), é agora que ele está bombando em redes sociais muito usadas por jovens da GenZ, como o TikTok.

E não é pouco dizer que esses jovens internautas estão obcecados com a tal “brain rot” ou “brainrot”. Tanto que a própria viralização do termo explica muito o que estamos vivendo nos tempos atuais: “doomscrolling“, essa rolagem infinita nos nossos feeds, e também nosso estado online crônico.

Traduzido por “podridão cerebral”, “apodrecimento do cérebro” ou até “cérebro apodrecido”, o termo, ou condição, descreve a “deterioração mental” causada por consumir grandes quantidades de conteúdo de baixo valor, como memes e vídeos sem sentido, que podem afetar negativamente as habilidades cognitivas e a capacidade de pensar criticamente.

Longe de ser um termo médico ou científico, é simplesmente um efeito colateral do nosso comportamento online, principalmente em redes sociais, frequentemente motivado por um desejo compulsivo de se manter atualizado, principalmente com eventos negativos, mesmo quando isso pode ser emocionalmente desgastante ou prejudicial para a saúde mental.

Basicamente, estamos gastando mais tempo e literalmente nos entregando e absorvendo grandes quantidades de informações irrelevantes e de baixa qualidade.

Sem entrar nas questões neurodegenerativas, não precisamos de muito para entendermos que, ao consumirmos conteúdos piores, ficaremos piores. Ou seja, nossos cérebros vão trabalhar com o que recebem. Se consumimos porcarias, vamos pensar em porcarias. Simples assim.

E tem muita gente online falando que já está com “brainrot” só de ter recebido ou passado por certos conteúdos, justamente porque estão muitos expostos a eles. E assim como os “slops” causam uma certa confusão mental, os conteúdos associados ao brainrot também, desassociando imagens ou conceitos de seus contextos reais.

Um exemplo é a imagem de um soldado da Segunda Guerra Mundial com um olhar atordoado, que faz parte da pintura de Tom Lea “That 2,000 Yard Stare“, que é usado em muitos conteúdos meméticos, e que TikTokers dizem ser brainrot.

Popularização e perigos

Fazendo uma pesquisa rápida no Google Trends, percebemos que tivemos uma procura maior do termo em 2005 e 2010, mas, a partir da segunda metade de 2023 até agora, o termo explodiu. E é interessante notar que esses picos estão muito associados à cultura gamer e a jogos que contribuíram com seu uso ao longo da década de 2010.

Inclusive, “brainrot” é uma doença que os jogadores podem contrair no jogo de “2011 The Elder Scrolls V: Skyrim“. Em 2007, ano que muita gente considera o surgimento do termo, ele aparece em posts no X, nos quais os usuários descreviam reality shows de namoro, videogames e certos comportamentos, como brainrot.

Um artigo recente do NYT, Jessica Roy relata como alguns usuários do TikTok até começaram a criar paródias de pessoas que parecem “ter” essa condição, ajudando, assim, na popularização, ridicularização e adoção do termo. E, apesar de não ser um elogio falar que alguém tem brainrot, algumas pessoas demonstram um leve orgulho ao admitir a condição.

Em um quiz recente do BuzzFeed, dava até pra saber se “o seu cérebro está 1000% cozido”. Outra leva de vídeos fala que quanto mais gírias da internet uma pessoa usa, mais brainrot ela tem.

E apesar do humor que tudo isso traz, existe um lado bem ruim. Sabe quando a gente fica obcecado por algo e vê aquilo em todo lugar, ou quando gostamos tanto de um personagem ou uma celebridade e começamos a ficar parecidos com elas? Bem, consumir conteúdos de baixa qualidade pode nos deixar menos preparados a certaz situações e “menos inteligentes”, como colocam os jovens com brainrot. Muitos compartilham nas redes seu medo de ficaram “burros”.

Há muitos pesquisadores que estão se debruçando nesse tema, como o neurocientista Michel Desmurget, que tem um livro bastante controverso, assim como outros que se adentram nesse tema, “A fábrica de cretinos digitais: Os perigos das telas para nossas crianças”.

Esse medo de ficarmos piores cognitivamente é real, porque somos o que comemos e consumimos. A “Geração Touch” e as “crianças de iPad” certamente carregam consequências disso, tanto pela tela e o aumento de miopia, muita quantidade de luz azul, que traz alterações no sono, e por aí vai, até o que é visto, assistido e lido.

Em toda a história da humanidade, acompanhamos as consequências boas e ruins das mais diversas tecnologias que foram sendo introduzidas nas nossas vidas, e se tratando de internet, hoje e sempre, independente da tecnologia em si, sabemos que “gostamos” de certos conteúdos justamente pelo modo como nosso próprio cérebro funciona.

Nem vou entrar nessa discussão, porque isso daria um outro texto, mas, no caso dos memes, eles são divertidos, rola uma conexão emocional positiva com eles, e isso dá uma ajudinha na disponibilidade de dopamina no nosso cérebro. É entretenimento puro e viciante.

Por isso mesmo, existem muitos pesquisadores interessados no assunto, tanto que, nos Estados Unidos, diversas instituições de saúde já estão estudando isso como um distúrbio. No artigo no NYT, é citada a pesquisa do Hospital Infantil de Boston, que chama essa condição de “Uso Problemático de Mídia Interativa”. E ela mostra que, conforme passamos muito tempo online, mudamos nossa percepção do espaço físico para o online, e isso tem consequências.

E a GenAI nessa história?

Brainrot está na moda hoje em dia, assim como a GenAI (inteligência artificial generativa). Mas será que a IA está ajudando a nos levar a um estado de brainrot generalizado?

Se o uso preguiçoso da GenAI pode nos fazer desenvolver menos algumas habilidades ao longo do tempo, não há dúvida. É como foi com a nossa memória, tanto que hoje não guardamos o número do celular de quase ninguém. Claro que nesse cas,o é reversível, podemos treinar e melhorar, graças a neuroplasticidade cerebral.

Mas, assim como a internet está se “slopificando”, ou seja, sendo tomada por conteúdos sem valor sendo gerados sinteticamente, nós também poderemos acabar nos deparando cada vez mais com esse conteúdo, e (por que não?) aumentando o brainrot, assim como nos enganando cada vez mais por conteúdos falsos. As consequências de longo prazo não sabemos, e muito estudo ainda será feito, mas, com certeza, uma coisa pode alimentar a outra.

Deveríamos nos preocupar com o “brainrot”?

Em certo sentido, sim, embora devamos ser cautelosos ao soar o alarme sobre o que impulsiona ou leva ao “brainrot”. É muito fácil referir-se a praticamente qualquer coisa como causadora de “brainrot”, se formos pensar.

A cultura da internet sempre traz questões e termos interessantíssimos que podem nos fazer pensar e desenvolver muitas teorias e conceitos. Brainrot ainda é uma expressão que carece de rigor científico, principalmente para descrever ou quantificar a saúde mental real. Mesmo assim, não significa que devemos ignorar ou minimizar as preocupações que estão no cerne desse termo.

Conheça tendências que sinalizam rumos para o futuro da IA

CNN

Continuar Lendo

Tecnologia

Tik Tok planeja lançar o Whee, plataforma de fotos ‘cópia’ do Instagram

Por

Na plataforma, será possível manter um feed de imagens, utilizar filtros nas fotos tiradas pelo próprio aplicativo, além de manter um fluxo de conexão de amigos

 

UE abre investigação contra TikTok por possível violação das normas – (crédito: Reprodução/Freepik)

 

O TikTok está trabalhando em seu próprio Instagram, afirmou o site Android Police na terça-feira, 18. O aplicativo, chamado Whee, tem como objetivo o compartilhamento de fotos com melhores amigos – uma mistura da rede de Mark Zuckerberg com o BeReal, de fotos instantâneas e não editadas. O app, que já pode ser utilizado em alguns países, ainda não chegou ao Brasil.

De acordo com as imagens vistas pelo Android Police, o Whee é um app separado do TikTok, mas também mantido pela ByteDance. Na plataforma, é possível manter um feed de imagens, utilizar filtros nas fotos tiradas pelo próprio aplicativo, além de manter um fluxo de conexão de amigos.

Configurações básicas como curtidas e comentários também estão presentes, em um layout bastante parecido com o do Instagram.

“Capture e compartilhe fotos da vida real que somente seus amigos podem ver, permitindo que você seja mais autêntico”, afirma a descrição do Whee no Google Play, loja de apps do Android. “Whee é o melhor lugar para amigos próximos compartilharem momentos da vida”, completam.

O TikTok e a ByteDance ainda não se pronunciaram oficialmente sobre o aplicativo, mas já é possível encontrar a nova rede social em alguns países em celulares com sistema operacional Android.

Agência Estado

 

Continuar Lendo

Tecnologia

YouTube testa recurso que introduz “notas” de contexto em vídeos

Por

Testes começarão nos Estados Unidos e serão feitos, inicialmente, com usuários e criadores selecionados

YouTube anunciou, nesta segunda-feira (17), que permitirá em breve que os usuários adicionem “notas” que fornecerão contexto sobre alguns de seus vídeos. Os testes fazem parte de um novo recurso que inicialmente será lançado nos Estados Unidos.

A plataforma convidará alguns usuários e criadores de conteúdo, como parte da fase inicial de teste, para escrever notas destinadas a fornecer “contexto relevante, oportuno e fácil de entender” sobre os vídeos.

As notas, por exemplo, poderão esclarecer quando uma música é uma paródia, apontar quando uma nova versão de um produto que está sendo analisado estiver disponível ou informar aos espectadores quando imagens antigas são erroneamente apresentadas como eventos atuais.

A rede social X, antigo Twitter, possui um recurso semelhante chamado Notas da Comunidade, que permite que colaboradores selecionados adicionem contexto às publicações, incluindo tags como “enganoso” e “fora de contexto”.

O recurso de notas no YouTube será, inicialmente, disponibilizado em dispositivos móveis para usuários nos Estados Unidos e em inglês. Nessa fase, avaliadores externos classificarão a utilidade das notas, o que ajudará a treinar os sistemas, antes de um possível lançamento mais amplo, disse o YouTube.

Fátima Bernardes lança canal no YouTube após deixar Globo

*Com reportagem de Yuvraj Malik, em Bengaluru

 

CNN Brasil

Continuar Lendo

Trending

Avenida Agamenon Magalhães, 444
Empresarial Difusora – sala 710
Caruaru – PE

Redação: (81) 2103-4296
WhatsApp: (81) 99885-4524
jornalismo@agrestehoje.com.br

comercial@agrestehoje.com.br

Copyright © 2024 - Todos os Direitos Reservados