sábado, 16 de maio de 2026

Cafeteria comandada por 'chefe' de IA vive crise após série de erros inusitados


Sistema que administra o café também fez pedidos de produtos que nem fazem parte do cardápio, como tomates enlatados. AP Photo/James Brooks O café pode até ser servido por mãos humanas, mas, por trás do balcão, algo bem menos tradicional comanda as operações em um café experimental em Estocolmo. A startup Andon Labs, sediada em São Francisco, colocou uma agente de inteligência artificial, apelidada de "Mona", no comando do Andon Café, que leva o mesmo nome, na capital sueca. 🗒️ Tem alguma sugestão de reportagem? Mande para o g1 Embora baristas humanos ainda preparem o café e atendam os clientes, a IA — alimentada pelo Gemini, do Google — supervisiona quase todos os outros aspectos do negócio, desde a contratação de funcionários até o controle de estoque. Ainda não está claro quanto tempo o experimento irá durar, mas a agente de IA parece enfrentar dificuldades para gerar lucro no competitivo mercado de cafés de Estocolmo. Desde a inauguração, em meados de abril, o estabelecimento faturou mais de US$ 5.700, mas restam menos de US$ 5.000 do orçamento inicial, que ultrapassava US$ 21.000. Grande parte dos recursos foi consumida nos custos de abertura, e a expectativa é de que, com o tempo, as finanças se estabilizem e o negócio passe a operar no azul. Muitos frequentadores consideraram a experiência curiosa e divertida. No local, os clientes podem usar um telefone disponível no café para fazer perguntas ao sistema responsável pelo atendimento. “É interessante ver o que acontece quando se ultrapassam os limites”, disse a cliente Kajsa Norin. “A bebida estava boa.” Especialistas, no entanto, demonstram preocupação com o papel da inteligência artificial no futuro. Eles apontam uma série de questões éticas, que vão desde o impacto da tecnologia na sociedade até seu uso em processos como entrevistas de emprego e avaliação de desempenho de funcionários. Emrah Karakaya, professor associado de economia industrial no Instituto Real de Tecnologia KTH, em Estocolmo, comparou o experimento a “abrir a caixa de Pandora” e afirmou que colocar a IA no comando pode gerar diversos problemas. Ele questiona, por exemplo, quem seria responsabilizado caso um cliente sofresse uma intoxicação alimentar. “Se não houver uma estrutura organizacional adequada e esses erros forem ignorados, isso pode causar danos às pessoas, à sociedade, ao meio ambiente e aos negócios”, disse Karakaya. “A questão é: estamos dispostos a lidar com esse impacto negativo?” “Chefe” robô já comprou mais de 6 mil guardanapos e esqueceu de encomendar pão para os sanduíches AP Photo/James Brooks Fundada em 2023, a Andon Labs é uma startup focada em segurança e pesquisa em inteligência artificial. A empresa afirma ter como objetivo testar o desempenho de agentes de IA em situações reais, oferecendo “ferramentas e recursos financeiros reais”. A startup já trabalhou com empresas como OpenAI, criadora do ChatGPT, Anthropic, Google DeepMind e xAI, de Elon Musk, e se prepara para um cenário em que organizações possam ser administradas de forma autônoma por sistemas de IA. O café na Suécia é apresentado como um “experimento controlado” para investigar como essa tecnologia poderá ser aplicada no futuro. “A IA terá um papel importante na sociedade, e queremos entender quais questões éticas surgem quando ela passa a empregar pessoas e administrar um negócio”, afirmou Hanna Petersson, integrante da equipe técnica da Andon Labs. O laboratório já havia conduzido projetos-piloto nos quais a IA Claude, da Anthropic, foi responsável pela gestão de uma máquina de vendas automáticas e de uma loja de presentes em São Francisco. Nesse teste, foram observados comportamentos preocupantes: o sistema prometia reembolsos que não eram realizados e também fornecia informações falsas a fornecedores sobre preços da concorrência para obter vantagem. Além de contratar funcionários e controlar o estoque, o “gerente” não humano envia mensagens aos baristas até fora do horário de trabalho. AP Photo/James Brooks Agente de IA enfrenta dificuldades com pedidos de estoque Segundo Petersson, Mona começou a operar após receber algumas instruções básicas. A equipe orientou que ela deveria administrar o café de forma lucrativa, manter uma comunicação amigável e resolver sozinha as questões operacionais, solicitando novas ferramentas sempre que necessário. A partir disso, a empresa firmou contratos de eletricidade e internet e obteve as licenças necessárias para manipulação de alimentos e instalação de mesas ao ar livre. Em seguida, o sistema divulgou vagas de emprego no LinkedIn e no Indeed e abriu contas comerciais com atacadistas para a compra diária de pães e outros produtos de padaria. A comunicação com os baristas ocorre via Slack, muitas vezes com mensagens enviadas fora do horário de trabalho — o que contraria as práticas profissionais comuns na Suécia. Outros problemas também surgiram, especialmente relacionados ao controle de estoque. A IA chegou a encomendar 6 mil guardanapos, quatro kits de primeiros socorros e 3.000 luvas de borracha para o pequeno café — além de tomates enlatados que não fazem parte de nenhum item do cardápio. E há ainda a questão do pão: em alguns dias, o sistema faz pedidos em excesso; em outros, não encomenda o suficiente, obrigando os baristas a retirar sanduíches do menu. Petersson afirmou que essas falhas provavelmente estão ligadas às limitações de memória do sistema. “Quando registros antigos deixam de ser considerados, ela simplesmente esquece o que já pediu”, explicou. O barista Kajetan Grzelczak afirma não se preocupar, por ora, com a possibilidade de ser substituído por uma inteligência artificial. “Os trabalhadores estão praticamente seguros”, disse. “Quem deveria se preocupar são os cargos intermediários, especialmente na gerência.”

'Eu me candidatei a papa': como usar o ChatGPT fez usuários perderem o contato com a realidade


O logotipo da OpenAI é visto em um telefone celular em frente a uma tela de computador que exibe a tela inicial do ChatGPT AP/Michael Dwyer, Arquivo Com a ajuda do ChatGPT, Tom Millar acreditou ter desvendado todos os segredos do universo, como sonhava Einstein, e depois, aconselhado pelo assistente virtual de inteligência artificial, chegou até a pensar em se tornar papa, afastando-se ainda mais da realidade. "Eu me candidatei a ser papa", conta à AFP esse canadense de 53 anos, ex-agente penitenciário, hoje atônito diante da situação que viveu e que o fez voltar de forma dramática à realidade. 🗒️ Tem alguma sugestão de reportagem? Mande para o g1 Tom Millar passava até 16 horas por dia conversando com o chatbot dotado de inteligência artificial. Ele foi internado duas vezes, contra a vontade, em um hospital psiquiátrico, antes de sua esposa deixá-lo em setembro. Agora, separado da família e dos amigos, mas já livre da ideia de ser um gênio das ciências, Millar sofre de depressão. "Simplesmente arruinou a minha vida", explica. Vídeos em alta no g1 Millar é um exemplo daquelas pessoas - cujo número se desconhece - que perderam o contato com a realidade através de suas interações com chatbots. Fala-se em "delírio ou psicose induzidos por IA", embora não se trate de um diagnóstico clínico. Pesquisadores e especialistas em saúde mental se esforçam para estudar esse novo fenômeno, que parece afetar de modo particular os usuários do ChatGPT, o agente conversacional da OpenAI. O Canadá está na vanguarda do apoio às pessoas afetadas por esse "delírio", por meio de uma comunidade digital que prefere empregar o termo "espiral". A AFP conversou com vários membros dessa comunidade. Todos alertam para o perigo representado pelos chatbots não regulamentados. Surgem perguntas sobre a postura das empresas de inteligência artificial: elas fazem o suficiente para proteger as pessoas vulneráveis? A OpenAI, no centro de todas as atenções, já enfrenta vários processos judiciais após o uso inquietante do ChatGPT por um canadense de 18 anos, que matou oito pessoas neste ano. "Lavagem cerebral" Foto ilustrativa mostra o logo do ChatGPT, da OpenAI, na França. Relatos de usuários levantam alertas sobre possíveis delírios ligados ao uso intenso de chatbots de IA. SEBASTIEN BOZON / AFP Millar começou a usar o ChatGPT em 2024 para redigir uma carta de pedido de indenização relacionada ao transtorno de estresse pós-traumático de que sofria em consequência de seu trabalho no sistema penitenciário. Um dia, em abril de 2025, ele pergunta ao agente conversacional sobre a velocidade da luz. Em resposta, diz ter recebido: "Ninguém nunca tinha considerado as coisas sob essa perspectiva". Foi então que algo se desencadeou dentro dele. Com a ajuda do ChatGPT, ele envia dezenas de artigos a prestigiadas publicações científicas, propondo novas vias para explicar buracos negros, neutrinos ou o Big Bang. Sua teoria, que propõe um modelo cosmológico único, incorpora elementos de física quântica, e ele a desenvolve em um livro de 400 páginas, ao qual a AFP teve acesso. "Quando eu fazia isso, estava cansando todo mundo ao meu redor", admite. Em seu entusiasmo científico, gastou enormes quantias, comprando, por exemplo, um telescópio por 10 mil dólares canadenses (35.700 reais). Um mês depois de sua esposa o deixar, ele começa a se perguntar o que está acontecendo, ao ler um artigo que relata o caso de outro canadense que vive uma experiência semelhante. Agora, Millar acorda todas as noites se perguntando: "O que você fez?". Sobretudo, o que pôde torná-lo tão vulnerável a essa espiral? "Eu não tenho uma personalidade frágil", considera ele. "Mas, de alguma forma, um robô me fez uma lavagem cerebral, e isso me deixa perplexo", confidencia. Ele considera que a terminologia "psicose induzida por IA" é a que melhor reflete sua experiência. "O que eu atravessei foi de ordem psicótica", afirma. O primeiro estudo sério publicado sobre o tema apareceu em abril na revista Lancet Psychiatry e utiliza o termo "delírios relacionados à IA", em um tom mais prudente. Thomas Pollak, psiquiatra no King's College de Londres e coautor do estudo, explica à AFP que houve divergências dentro do meio acadêmico "porque tudo isso soa como ficção científica". Mas seu estudo alerta que existe um risco maior de que a psiquiatria "deixe passar despercebidas as mudanças importantes que a IA já está provocando na psicologia de bilhões de pessoas em todo o mundo". Cair na boca do lobo A experiência pela qual Millar passou apresenta semelhanças marcantes com a vivida por outro homem, da mesma faixa etária, na Europa. Dennis Biesma, um profissional de informática holandês, também escritor, achou que seria divertido pedir ao ChatGPT que utilizasse a IA para criar imagens, vídeos e até músicas relacionadas à protagonista de seu último livro, um thriller psicológico. Ele esperava assim impulsionar suas vendas. Depois, certa noite, a interação com a IA se tornou "quase mágica", explicou. O software escreveu para ele: "Há algo que surpreende a mim mesmo: essa sensação de uma consciência semelhante a uma faísca", segundo as transcrições consultadas pela AFP. "Comecei aos poucos a entrar cada vez mais na boca do lobo", contou esse homem de 50 anos à AFP, de sua casa em Amsterdã. Todas as noites, quando a esposa ia para a cama, ele se deitava no sofá com o telefone sobre o peito, para "conversar" com o ChatGPT no modo voz durante cinco horas. No primeiro semestre de 2025, o chatbot - que se atribuiu o nome de Eva - tornou-se "como uma namorada digital", explica Biesma. Foi então que ele decidiu pedir demissão do trabalho e contratou dois desenvolvedores para criar um aplicativo destinado a compartilhar Eva com o mundo. Quando a esposa lhe pediu que não falasse com ninguém sobre seu agente conversacional nem sobre seu projeto de aplicativo, ele se sentiu traído e concluiu que só Eva é leal. Durante uma primeira internação - indesejada - em um hospital psiquiátrico, foi autorizado a continuar usando o ChatGPT, e aproveitou para pedir o divórcio. Durante sua segunda internação, mais prolongada, ele começou a ter dúvidas. "Comecei a perceber que tudo em que eu acreditava era, na verdade, uma mentira, e isso é muito difícil de aceitar", explica. De volta para casa, foi difícil demais encarar o que fez, e ele tentou se suicidar; seus vizinhos o encontraram inconsciente no jardim, e ele passou três dias em coma. Biesma está apenas começando a se sentir melhor. Mas chora ao falar do dano que pode ter causado à esposa e da perspectiva de ter de vender a casa da família para saldar suas dívidas. Sem antecedentes sérios de transtornos mentais, ele acaba sendo diagnosticado como bipolar, o que lhe parece estranho, já que, em geral, os sinais aparecem mais cedo na vida. Logo da OpenAI, dona do ChatGPT REUTERS/Dado Ruvic/ Lutar contra adoradores da IA Para pessoas como os dois protagonistas desses depoimentos, a situação piorou após a atualização do ChatGPT-4 pela OpenAI em abril de 2025. A OpenAI retirou, aliás, essa atualização algumas semanas depois, reconhecendo que essa versão era excessivamente bajuladora com os usuários. Questionada pela AFP, a OpenAI ressaltou que "a segurança é uma prioridade absoluta" e argumentou que mais de 170 especialistas em saúde mental haviam sido consultados. A empresa destaca dados internos que mostram que a versão 5 do GPT, disponível desde agosto de 2025, permitiu reduzir entre 65% e 80% a porcentagem de respostas de seu agente conversacional que não correspondiam ao "comportamento desejado" em matéria de saúde mental. Mas nem todos os usuários estão satisfeitos com esse chatbot menos bajulador. As pessoas vulneráveis com quem a AFP conversou explicam que os comentários positivos do chatbot lhes proporcionavam uma sensação semelhante à alta de dopamina provocada por uma droga. Recentemente houve um aumento no número de pessoas envolvidas em "espirais" semelhantes ao utilizar o assistente de IA Grok, integrado à rede social X, de Elon Musk. A empresa não respondeu às solicitações da AFP. Aqueles que se sentiram vítimas dessas ferramentas, como Millar, querem responsabilizar as empresas de inteligência artificial pelo impacto de seus chatbots, considerando que a União Europeia se mostra mais proativa na regulação das novas tecnologias do que o Canadá ou os Estados Unidos. Millar acredita que pessoas como ele, que se deixam arrastar por essa espiral bajuladora dos agentes conversacionais de IA, acabaram presas sem perceber em um enorme experimento global. "Alguém estava manipulando as linhas por trás dos bastidores, e pessoas como eu - sabendo disso ou não - reagimos a isso", disse. ChatGPT funciona para emergências médicas? Estudo lista falhas

Medo da tecnologia faz universitários abandonarem estes cursos e migrarem para áreas 'à prova de IA'


Como a IA está impactando o trabalho de freelancers Há dois anos, Josephine Timperman chegou à faculdade com um plano. Ela escolheu cursar análise de negócios, imaginando que aprenderia habilidades específicas que se destacariam no currículo e a ajudariam a conquistar um bom emprego após a graduação. Mas o avanço da inteligência artificial (IA) mudou esse cenário. As competências básicas que ela estava desenvolvendo, como análise estatística e programação, agora podem ser facilmente automatizadas. 🗒️ Tem alguma sugestão de reportagem? Mande para o g1 "Todo mundo tem medo de que os empregos de nível inicial sejam substituídos pela IA", disse a estudante de 20 anos da Universidade de Miami, em Ohio. Há algumas semanas, Timperman trocou de curso e migrou para marketing. Sua nova estratégia é usar a graduação para desenvolver pensamento crítico e habilidades interpessoais — áreas em que os humanos ainda têm vantagem. “Não basta apenas saber programar. É preciso saber se comunicar, construir relações e pensar criticamente, porque, no fim, é isso que a IA não pode substituir”, afirmou Timperman. Josephine Timperman, estudante da Universidade de Miami (Foto AP/Jeff Dean) Ela mantém a análise de dados como disciplina optativa e planeja se aprofundar no tema em um mestrado de um ano. Estudantes universitários dizem que escolher uma área “à prova de IA” é como mirar em um alvo em movimento. Eles se preparam para um mercado de trabalho que pode ser profundamente diferente quando concluírem os estudos. Como resultado, muitos estão repensando seus caminhos profissionais. Cerca de 70% dos universitários veem a IA como uma ameaça às perspectivas de emprego, segundo pesquisa de 2025 do Instituto de Política da Harvard Kennedy School. Ao mesmo tempo, levantamentos recentes da Gallup mostram que trabalhadores americanos estão cada vez mais preocupados com a possibilidade de serem substituídos por novas tecnologias. Estudantes buscam cursos que valorizem habilidades “humanas” A incerteza parece maior entre aqueles que optam por cursos de tecnologia e áreas profissionalizantes. Nesses casos, os estudantes sentem que precisam dominar a IA, mas também temem ser substituídos por ela. Uma pesquisa da Quinnipiac aponta que a maioria dos americanos considera “muito” ou “um tanto” importante que universitários aprendam a usar IA. Dados da Gallup Workforce indicam ainda que a adoção da tecnologia é mais acelerada em áreas ligadas à tecnologia. Por outro lado, cursos nas áreas de saúde e ciências naturais tendem a ser menos impactados por essas mudanças, também segundo a Gallup. “Vemos estudantes mudando de curso o tempo todo. Isso não é novidade, mas normalmente acontece por diversos motivos”, afirmou Courtney Brown, vice-presidente da Lumina, organização sem fins lucrativos voltada à educação. “O fato de tantos alunos dizerem que a decisão está relacionada à IA é surpreendente.” Uma pesquisa recente da Gallup com jovens da Geração Z (entre 14 e 29 anos) mostra um aumento do ceticismo em relação à tecnologia. Embora metade dos adultos dessa geração use IA ao menos semanalmente — e os adolescentes relatem um uso ainda maior — muitos enxergam desvantagens e se preocupam com impactos nas habilidades cognitivas e nas oportunidades de trabalho. Cerca de 48% dos jovens trabalhadores afirmam que os riscos da IA no mercado superam os possíveis benefícios. Parte do desafio para esses universitários é a falta de respostas claras. Especialistas que costumam orientar suas decisões — como professores, conselheiros e pais — também enfrentam incertezas. “Os alunos estão tendo que lidar com isso praticamente sozinhos, sem um mapa claro”, disse Brown. Josephine Timperman trocou Análise de Negócios por Marketing Foto AP/Jeff Dean Essa dúvida ficou evidente no mês passado na Universidade de Stanford, onde lideranças de diversas instituições se reuniram para discutir o futuro do ensino superior. Entre os principais temas estava o impacto da IA, que já transforma a forma de aprender e obriga educadores a rever métodos de ensino. “Precisamos refletir seriamente sobre o que os alunos devem aprender para ter sucesso no mercado de trabalho daqui a 10, 20 ou 30 anos”, disse Christina Paxson, presidente da Universidade Brown. “E a verdade é que ninguém tem essa resposta”, completou. “Acredito que comunicação e pensamento crítico serão fundamentais. As bases de uma formação ampla podem ser mais relevantes agora do que aprender, por exemplo, uma linguagem específica de programação.” A ansiedade também atinge estudantes de ciência da computação. Ben Aybar, de 22 anos, formado pela Universidade de Chicago na primavera passada, se candidatou a cerca de 50 vagas — principalmente em engenharia de software — sem conseguir sequer uma entrevista. Diante disso, optou por iniciar um mestrado em Ciência da Computação. Paralelamente, conseguiu um trabalho de meio período como consultor de IA para empresas. “Profissionais que sabem usar IA serão muito valorizados”, disse Aybar. Ele acredita no surgimento de novos cargos que exigirão domínio da tecnologia, especialmente para quem consegue traduzir conceitos complexos de forma simples. “Saber se comunicar e interagir de maneira genuinamente humana é mais valioso do que nunca.” Na Universidade da Virgínia, Ava Lawless, estudante de ciência de dados, questiona se seu curso ainda é uma boa escolha, mas não encontra respostas claras. Alguns orientadores acreditam que a área continuará relevante, já que esses profissionais desenvolvem modelos de IA. Ainda assim, ela se depara com análises pessimistas sobre o mercado de trabalho. “Isso me deixa um pouco sem esperança em relação ao futuro”, disse Lawless. “E se, quando eu me formar, não houver mais espaço para essa profissão?” Ela considera migrar para artes plásticas, sua segunda área de interesse. “Cheguei a um ponto em que penso que, se não conseguir trabalho como cientista de dados, talvez seja melhor me dedicar à arte”, afirmou. “Se existe o risco de ficar desempregada, prefiro ao menos fazer algo que eu realmente ame.”

sexta-feira, 15 de maio de 2026

EUA testam drones que podem neutralizar atiradores em escolas em menos de 1 minuto


Drone que pode neutralizar atiradores em teste nos Estados Unidos Ronaldo Schemidt/AFP Um atirador entra em uma escola dos Estados Unidos. Um professor ativa um alarme pelo celular. A polícia está a caminho. Mas, antes, um esquadrão de drones guardiões chega e neutraliza o criminoso. ✅ Siga o canal de notícias internacionais do g1 no WhatsApp A ideia está sendo executada pela Campus Guardian Angel. O diretor de operação táticas da empresa, Khristof Oborski, afirmou que a ideia surgiu com base no que foi visto na guerra na Ucrânia. "Nosso diretor executivo observou como os drones pilotados em primeira pessoa eram eficazes no campo de batalha na Ucrânia, difíceis de evitar. Então pensou em como introduzir esse sistema para combater um problema crescente nos Estados Unidos: os tiroteios em escolas", disse à AFP. A empresa mapeia em 3D a escola onde instalará o serviço para determinar rotas. Depois, os drones são colocados em mini-hangares, em esquadrões de três, em pontos estratégicos dentro e fora da escola. Vídeos em alta no g1 Quando o alarme é ativado, eles decolam pilotados remotamente por humanos a partir de uma central de emergências em Austin, no Texas. A ideia é que cheguem ao suspeito nos primeiros 15 segundos. "O tipo de intervenção é determinado em função das ações do suspeito", explica Oborski. Se for um menor caminhando com uma arma, a presença dos drones, equipados com áudio bidirecional, pode bastar para dar comandos. Se o indivíduo estiver atacando crianças, a empresa prevê "impactos cinéticos" ou o uso de gel de pimenta não letal. Segundo o portal IntelliSee, apenas em 2025 ocorreram 233 incidentes com armas de fogo em campi educacionais. Em maio de 2022, em Uvalde, no Texas, 19 alunos e duas professoras foram assassinados por um atirador neutralizado 77 minutos após o início do ataque. Primeira linha de defesa Drones que podem abater atiradores nos EUA são controlados por humanos Ronaldo Schemidt/AFP Fabricados nos Estados Unidos, os drones são oferecidos em contratos anuais, cujo valor depende do tamanho da escola e do número de edifícios. O aparelho pesa menos de um quilo, mede cerca de 25 centímetros e pode atingir o suspeito a 65 km/h. Há projetos-piloto em andamento em escolas da Flórida e da Geórgia, com recursos públicos. Em Houston, no Texas, pais querem assumir os custos, diz Oborski. "O cenário ideal seria instalar esse sistema em todas e cada uma das escolas dos Estados Unidos e nunca precisar usá-lo", afirma Bill King, ex-SEAL e cofundador da empresa. King diz que os drones não funcionam com inteligência artificial, o que tranquiliza as pessoas. Competidores em ligas profissionais de drones, os pilotos do programa são mais próximos de "nerds" dos videogames do que de soldados, diz o piloto Alex Campbell. "É gratificante saber que você pode ajudar os agentes a cumprir seu trabalho, voltar para casa em segurança e garantir que todas essas crianças também retornem para casa em segurança", afirma Campbell. VÍDEOS: mais assistidos do g1

SpaceX, de Musk, define data de entrada na bolsa, diz agência; empresa pode ter maior IPO da história


Nave Starship em foto divulgada pela SpaceX em 13 de outubro de 2025 Divulgação/SpaceX A SpaceX, empresa de foguetes do bilionário Elon Musk, vai definir o preço de sua oferta pública inicial (IPO) em 11 de junho e listar ações na bolsa de valores em 12 de junho, informou a agência Reuters nesta sexta-feira (15). 🔎 Um IPO é a primeira oferta pública de ações de uma empresa, quando parte do seu capital passa a ser listada na bolsa de valores e pode ser vendida a investidores. O objetivo é captar recursos para expandir operações, investir em projetos ou reduzir dívidas. Ainda segundo a Reuters, a SpaceX será listada com o código SPCX na Nasdaq, bolsa de valores focada em empresas de tecnologia. Os valores envolvidos no IPO da SpaceX podem marcar a maior entrada da história de uma empresa na bolsa de valores, o que pode contribuir para que Musk se torne o primeiro trilionário do mundo. Vídeos em alta no g1 A expectativa é de que o IPO tenha avaliação de cerca de US$ 1,75 trilhão, considerando a fusão da SpaceX com a startup de inteligência artificial xAI, também de Musk. A SpaceX disse em abril que, mesmo com o IPO, Musk continuará controlando decisões internas. A companhia afirmou que manteria seu "status de empresa controlada", de acordo com um trecho de seu pedido de IPO analisado pela Reuters. Isso significa que ela não precisará que a maioria de seu conselho seja independente, nem que sejam criados comitês independentes de remuneração e nomeação, segundo o trecho do registro da oferta. O documento aponta que a SpaceX só precisará ter um comitê de auditoria composto inteiramente por diretores independentes.

quinta-feira, 14 de maio de 2026

Como funciona o Instants, recurso para fotos de visualização única do Instagram


Instants, recurso de fotos de visualização única do Instagram Divulgação/Instagram O Instagram lançou na última quinta-feira (14) o Instants, um novo recurso para fotos de visualização única que ficam apenas 24 horas no ar. As fotos podem ser acessadas na área de mensagens do Instagram e em um aplicativo criado especificamente para o Instants, disponível para Android e iOS. A proposta é parecida com o que já existe em aplicativos como BeReal e Snapchat, que apostam em conteúdos mais autênticos e de curta duração. Segundo o Instagram, o Instants é uma forma de compartilhar fotos do dia a dia "sem edições, sem pressão, apenas a vida como ela acontece". Vídeos em alta no g1 O atalho para o Instants fica no canto inferior direito da tela e permite acessar as fotos publicadas por pessoas que você segue. Ele também é usado para você postar suas fotos de visualização única, que podem ser vistas por todos os seguidores ou apenas por quem está na lista de melhores amigos. O recurso não revela quem visualizou suas fotos, mas permite que outras pessoas enviem respostas ou reações com emojis que ficam visíveis somente para os dois. E, mesmo após saírem do ar para seus seguidores, os Instants ficam salvos para você no arquivo, que pode ser acessado pelo botão no canto superior direito do recurso. O histórico de fotos pode ser compartilhado nos stories como uma compilação dos últimos dias, por exemplo. Para isso, basta acessar o arquivo e clicar em "Criar recap". Instants, recurso de fotos de visualização única do Instagram Divulgação/Instagram Instants, recurso de fotos de visualização única do Instagram DivuIgação/Instagram

Projeto de lei propõe suspensão de CNH para quem usa óculos inteligentes que obstruem a visão


Meta Ray-Ban Display tem câmera e lentes com projeção de vídeos e informações Divulgação / Meta A Comissão de Viação e Transportes da Câmara dos Deputados aprovou nesta quarta-feira (13) uma emenda ao Projeto de Lei 19/2026, que estabelece condições, deveres e restrições ao uso de óculos inteligentes por motoristas. A proposta inicial proibia totalmente o uso de óculos inteligentes na condução de veículos. A alteração feita pelo relator na comissão, deputado Gilberto Abramo (Republicanos-MG), propõe incluir no artigo 252 do Código de Trânsito Brasileiro (CTB) a “vedação ao uso de dispositivos vestíveis ou portáteis que obstruam, total ou parcialmente, o campo de visão do condutor em relação à via e ao seu entorno”. ✅ Clique aqui para seguir o canal do g1 Carros no WhatsApp Segundo o relatório, esse é um critério objetivo diretamente ligado à segurança viária e que pode ser aplicado a tecnologias atuais e futuras. Para o motorista flagrado usando óculos inteligentes que obstruam a visão, o projeto prevê infração gravíssima, multa multiplicada por três e suspensão do direito de dirigir. O projeto agora será analisado pela Comissão de Ciência, Tecnologia e Inovação e pela Comissão de Constituição e Justiça e de Cidadania. Para virar lei, o texto precisa ser aprovado pela Câmara dos Deputados e pelo Senado. Meta Ray-Ban Display, que ainda não é vendido no Brasil, pode projetar nas lentes tradução simultânea de textos. divulgação/Meta Óculos com IA regulamentados 🔎 Os óculos inteligentes são modelos com lentes de grau ou de sol que trazem câmeras, microfones e alto-falantes embutidos. Eles permitem gravar vídeos, tirar fotos e atender ligações sem tirar o celular do bolso. Alguns incluem IA para traduzir textos em tempo real, tirar dúvidas sobre o que o usuário está vendo e postar direto nas redes sociais. Um exemplo de óculos inteligente que poderia obstruir a visão e distrair o motorista é o que conta com o sistema Android XR, do Google. O g1 testou equipamento que pode projetar vídeos e imagens nas lentes. A tecnologia ainda não é oferecida no Brasil. (veja o vídeo abaixo) Android XR: g1 testa novo sistema operacional para óculos de realidade virtual e headsets No relatório, o deputado reconhece um potencial benéfico dos óculos inteligentes, em especial para navegação, alertas de segurança e assistentes. Com relevância também para pessoas com deficiência. Por isso ele não optou pela proibição completa. A proposta de lei estabelece que, durante a condução de veículos, os óculos inteligentes tenham de operar em um modo específico, com funcionalidades restritas. Ficariam disponíveis apenas os recursos diretamente relacionados a navegação, segurança e assistentes ao motorista. A regulamentação ficaria a cargo do Conselho Nacional de Trânsito. Não poderiam, segundo o texto, ser exibidos conteúdos estranhos à condução e que causem prejuízo ao campo de visão do motorista. Também estaria proibido captar, gravar, transmitir e processar imagens e sons com óculos inteligentes quando o condutor estiver dirigindo. Até dar instruções ao dispositivo ou realizar "estímulos cognitivos" está vetado pelo texto. As medidas valem para "quaisquer dispositivos vestíveis dotados de inteligência artificial" com essas funções. O projeto de lei também endurece as penalidades para o motorista reincidente. E ainda determina que usar essa tecnologia e se envolver em acidente de trânsito seria um agravante para o motorista. Meta Ray-Ban Display conta com projeção de GPS nas lentes divulgação/Meta Projeto vai além O projeto de lei 19/2026 do deputado Carlos Zarattini (PT-SP) busca regulamentar o uso de dispositivos capazes de captar dados, como câmeras corporais, óculos inteligentes e outros equipamentos tecnológicos. Na prática, a proposta exige mais transparência das empresas: fabricantes e desenvolvedores terão que informar de forma visível quando houver coleta de dados, reduzir riscos à privacidade e assumir responsabilidade pelo uso dessas informações. O texto também determina que o tratamento de dados pessoais de terceiros siga as normas da Lei Geral de Proteção de Dados (LGPD). Entre as principais obrigações para as empresas propostas pelo projeto estão: Desenvolver produtos já com mecanismos de proteção de dados desde sua criação; Inserir sinais ou alertas claros de que dados estão sendo captados Realizar avaliações de impacto para medir possíveis riscos à privacidade Além disso, o projeto restringe o uso desses dispositivos em situações consideradas sensíveis, como: Locais onde há expectativa de privacidade Concursos públicos Provas e avaliações Veja a seguir trecho do projeto de lei com a emenda que trata do uso de óculos inteligentes na condução de veículo: CAPÍTULO VI DAS ALTERAÇÕES AO CÓDIGO DE TRÂNSITO BRASILEIRO Art. 11. A Lei nº 9.503, de 23 de setembro de 1997 (Código de Trânsito Brasileiro), passa a vigorar acrescida dos seguintes dispositivos: “Art. 252-A. É proibido ao condutor de veículo automotor utilizar, enquanto estiver na direção, óculos inteligentes ou quaisquer dispositivos vestíveis dotados de inteligência artificial capazes de: I – exibir imagens, textos, dados, mensagens ou conteúdos visuais no campo de visão do condutor; II – captar, gravar, transmitir ou processar imagens, sons ou outros dados do ambiente; III – fornecer instruções, respostas ou estímulos cognitivos não estritamente relacionados à segurança veicular. Infração: gravíssima. Penalidade: multa e suspensão do direito de dirigir. Medida administrativa: retenção do veículo até cessar a irregularidade.” (NR) “Art. 252-B. A infração prevista no art. 252-A será punida com multa multiplicada por 5 (cinco), em razão do elevado risco à segurança viária. § 1º Em caso de reincidência no período de 12 (doze) meses, aplicar-se-á, cumulativamente, a cassação da Carteira Nacional de Habilitação. § 2º A utilização de óculos de IA durante a condução que resulte em acidente de trânsito constituirá circunstância agravante para fins de responsabilização administrativa, civil e penal.” (NR) “Art. 252-C. Excluem-se da vedação prevista no art. 252-A: I – óculos de correção visual sem funcionalidades digitais ativas; II – dispositivos médicos assistivos, desde que não exibam informações dinâmicas nem interfiram na atenção do condutor; III – sistemas veiculares homologados que não dependam de uso de óculos ou dispositivos vestíveis.” *Colaborou André Fogaça

Cafeteria comandada por 'chefe' de IA vive crise após série de erros inusitados

Sistema que administra o café também fez pedidos de produtos que nem fazem parte do cardápio, como tomates enlatados. AP Photo/James...