Erros do Google AI: Colocando Cola em Pizza e Mais Erros Chocantes

Descubra erros chocantes de IA da Google, incluindo recomendações para colocar cola na pizza e outros erros bizarros. Explore os últimos desenvolvimentos em IA de gigantes da tecnologia como Microsoft, Meta e mais. Mantenha-se informado sobre a evolução da tecnologia de IA e suas implicações.

15 de fevereiro de 2025

party-gif

Descubra as últimas notícias e insights sobre IA neste post informativo. Explore os desafios enfrentados por gigantes da tecnologia como Google e OpenAI, e saiba sobre os emocionantes desenvolvimentos em recursos alimentados por IA da Microsoft. Fique à frente da curva e adquira um entendimento mais profundo do mundo em rápida evolução da inteligência artificial.

Erros de IA da Google: Recomendações Desastrosas Deram Errado

Parece que os últimos esforços de IA da Google têm sido assolados por alguns problemas graves, como evidenciado pelas inúmeras respostas preocupantes que sua IA forneceu quando consultada diretamente por meio da Pesquisa Google.

Alguns exemplos das recomendações problemáticas da IA incluem:

  • Sugerir adicionar cola não tóxica ao molho de pizza para fazer o queijo grudar melhor.
  • Afirmar que 1919 foi há 20 anos.
  • Recomendar que mulheres grávidas fumem de 2 a 3 cigarros por dia.
  • Declarar que é sempre seguro deixar um cachorro em um carro quente.
  • Fabricar detalhes sobre a morte fictícia de um personagem do Bob Esponja.
  • Fornecer um processo complicado de várias etapas para determinar o número de irmãs de uma pessoa.

Essas respostas geradas pela IA não são apenas imprecisas, mas em muitos casos podem ser ativamente prejudiciais se seguidas. Parece que a IA da Google está tendo dificuldades em fornecer informações confiáveis e factuais quando consultada diretamente, levantando sérias preocupações sobre a segurança e confiabilidade da integração dessa tecnologia na funcionalidade de pesquisa básica.

Embora a Google tenha afirmado que a voz usada em sua recente demonstração do GPT-4 não era de Scarlett Johansson, a semelhança gerou controvérsia e questionamentos sobre suas práticas. A parceria da empresa com a News Corp também levanta preocupações sobre possíveis vieses, embora a Google mantenha que os dados de treinamento existentes são a principal preocupação, e não o novo acesso ao conteúdo.

No geral, esses incidentes destacam a necessidade crítica de testes rigorosos, supervisão e transparência à medida que os sistemas de IA se tornam mais profundamente integrados aos serviços cotidianos. A Google precisará abordar esses problemas rapidamente para manter a confiança do usuário e garantir a segurança de suas ofertas alimentadas por IA.

Yan Luo Deixa a OpenAI, Levanta Preocupações de Segurança

Yan Luo, o chefe de super alinhamento na OpenAI, deixou a empresa. Em uma thread no Twitter, Luo expressou preocupações sobre as prioridades da OpenAI, afirmando que ele tem "discordado da liderança da OpenAI sobre as prioridades centrais da empresa há algum tempo".

Luo acredita que mais da largura de banda da OpenAI deveria ser gasta em "se preparar para as próximas gerações de modelos em monitoramento de segurança, preparação, segurança, robustez adversária, super alinhamento, confidencialidade, impacto social e tópicos relacionados". Ele está preocupado que essas áreas de pesquisa cruciais tenham ficado em segundo plano em relação a "produtos brilhantes".

A saída de Luo vem logo após a saída de Ilya Sutskever, o cientista-chefe da OpenAI. Enquanto Sutskever saiu em bons termos, a saída de Luo parece ser mais contenciosa, com a sugestão de que os funcionários da OpenAI que criticam a empresa podem enfrentar consequências, como a perda de ações adquiridas.

O CEO da OpenAI, Sam Altman, reconheceu as preocupações de Luo e afirmou que a empresa está comprometida em abordá-las. No entanto, a situação destaca o debate contínuo na comunidade de IA sobre o equilíbrio entre inovação e segurança.

À medida que o desenvolvimento de sistemas de IA avançados continua, a importância de priorizar a segurança e o alinhamento com os valores humanos se torna cada vez mais crítica. A saída de Luo da OpenAI enfatiza a necessidade de as empresas de IA manterem um forte foco nesses problemas cruciais.

Controvérsia de Voz da OpenAI: Disputa com Scarlett Johansson

De acordo com os relatórios, a recente demonstração do GPT-4 da OpenAI apresentou uma voz muito semelhante à da atriz Scarlett Johansson do filme "Her". Aparentemente, a OpenAI havia entrado em contato com Johansson para usar sua voz, mas ela recusou. No entanto, a OpenAI afirma que contrataram um ator de voz cuja voz acabou soando semelhante, e nunca foi sua intenção replicar a voz de Johansson.

Isso gerou uma controvérsia, com muitos acreditando que a OpenAI simplesmente encontrou uma maneira de usar um ator de voz que soava como Johansson, mesmo que eles tenham sido negados a permissão para usar a voz real dela. Enquanto a OpenAI mantém que não copiaram a voz de Johansson, o público parece ter se aliado à atriz, vendo isso como um caso de área cinzenta.

Os principais pontos são:

  • A OpenAI entrou em contato com Scarlett Johansson para usar sua voz, mas ela recusou.
  • A OpenAI afirma que contrataram um ator de voz cuja voz acabou soando semelhante, não tendo a intenção de replicar a voz de Johansson.
  • Muitos acreditam que a OpenAI encontrou uma maneira de usar um ator de voz semelhante, mesmo que eles tenham sido negados a voz real de Johansson.
  • É uma área cinzenta controversa, com o público se aliando mais a Johansson na questão.

No geral, este incidente levantou questões sobre a ética e a transparência em torno da geração de voz por IA, especialmente quando se trata de usar vozes que se assemelham muito a pessoas reais sem o seu consentimento.

Parceria da OpenAI com a News Corp: Implicações Potenciais de Viés

A OpenAI anunciou recentemente uma parceria com a News Corp, fornecendo a eles acesso a conteúdo de principais publicações de notícias e informações. Isso levantou preocupações sobre possíveis vieses sendo introduzidos nos modelos de linguagem da OpenAI, particularmente no ChatGPT.

No entanto, a realidade é que o conteúdo da News Corp provavelmente já está treinado no ChatGPT, e essa parceria simplesmente fornece uma abordagem mais ética e transparente para acessar esses dados. Os vieses existentes nos dados de treinamento provavelmente não serão significativamente alterados por esse novo acordo.

Embora a News Corp seja conhecida por suas inclinações políticas mais extremas, particularmente através de sua divisão Fox News, o impacto nos resultados do ChatGPT não deve ser substancial. O modelo de linguagem já foi treinado em uma vasta quantidade de dados online, que provavelmente incluem conteúdo de uma ampla gama de fontes de notícias, tanto de esquerda quanto de direita.

A parceria com a News Corp simplesmente fornece à OpenAI a permissão legal para usar esse conteúdo em seus futuros treinamentos, em vez de depender de fontes de dados potencialmente tendenciosas ou incompletas. Esse movimento em direção à transparência e à aquisição ética de dados é um passo positivo, mesmo que as implicações práticas para os resultados do ChatGPT possam ser limitadas.

Em última análise, embora a parceria com a News Corp levante preocupações válidas sobre possíveis vieses, a realidade é que os resultados do ChatGPT provavelmente já são influenciados por uma diversidade de fontes de notícias, tanto em termos de inclinações políticas quanto de qualidade. A parceria é mais sobre formalizar e legitimar as fontes de dados utilizadas, em vez de introduzir novos vieses significativos no modelo de linguagem.

Rumor: Apple Integrará Modelos da OpenAI no Siri

Isso se enquadra mais no território dos rumores, mas é uma alegação que vale a pena discutir. De acordo com o site Mac Daily News, há um rumor de que a Apple vai fazer uma parceria com a OpenAI e que isso será anunciado na WWDC.

Isso também foi relatado pela Bloomberg, mas ainda não foi confirmado nem pela Apple nem pela OpenAI. O rumor atual é de que a nova versão do Siri no próximo iPhone da Apple poderia potencialmente ser alimentada pelos modelos mais recentes do GPT da OpenAI.

Também ouvimos rumores de que a Apple tem conversado com a Google sobre integrar o Gemini, outro grande modelo de linguagem, em seus produtos. No entanto, só saberemos com certeza qual será o resultado até o evento da WWDC.

Se o rumor for verdadeiro e a Apple acabar integrando os modelos da OpenAI no Siri, isso poderia potencialmente levar a melhorias significativas nas capacidades do Siri. Os modelos de linguagem da OpenAI, como o GPT-4, demonstraram um desempenho impressionante em uma variedade de tarefas. Integrar esses modelos poderia ajudar a tornar o Siri mais conversacional, conhecedor e capaz de entender e responder a consultas em linguagem natural.

Ao mesmo tempo, pode haver preocupações sobre possíveis vieses ou limitações que poderiam ser introduzidos pelos modelos da OpenAI. Será importante que a Apple avalie e aborde cuidadosamente quaisquer problemas desse tipo para garantir que o Siri permaneça um assistente confiável e digno de confiança.

No geral, o rumor da parceria da Apple com a OpenAI para o Siri é um intrigante, e será interessante ver se ele se concretizará no próximo evento da WWDC. Como com qualquer rumor, é melhor esperar pela confirmação oficial antes de tirar quaisquer conclusões.

Destaques do Evento Microsoft Build: PCs Co-Pilot, Recurso de Recall e Mais

No evento Microsoft Build em Seattle, o gigante da tecnologia revelou várias novidades e atualizações empolgantes:

  1. Co-Pilot PCs: A Microsoft apresentou os "Co-Pilot PCs" - computadores com uma Unidade de Processamento Neural (NPU) dedicada para executar inferência de IA localmente, permitindo que os usuários interajam com assistentes de IA sem depender da nuvem.

  2. Recurso de Recall: Um novo recurso chamado "Recall" foi anunciado, que permite que os usuários visualizem todo o histórico de uso do computador, incluindo navegação, aplicativos e mais. No entanto, esse recurso levantou preocupações de privacidade devido ao potencial de exposição de dados sensíveis se o dispositivo for perdido ou comprometido.

  3. Atualizações do Microsoft Paint: O Microsoft Paint recebeu melhorias alimentadas por IA, incluindo a capacidade de gerar imagens, melhorar esboços e reestilizar imagens existentes.

  4. Melhorias no Navegador Edge: O navegador Microsoft Edge ganhou novos recursos de tradução e transcrição, permitindo tradução e transcrição em tempo real durante chamadas de vídeo e reuniões.

  5. Co-Pilot para o Teams: A Microsoft apresentou um "membro da equipe" de IA que pode ser integrado ao Microsoft Teams, ajudando com tarefas como criar listas de verificação e resumir reuniões.

  6. Modelo de Linguagem F3: A Microsoft anunciou um novo modelo de linguagem multimodal pequeno chamado "F3", que provavelmente será comparado a outros grandes modelos de linguagem por especialistas da área.

  7. Extensões do GitHub Co-Pilot: A Microsoft expandiu os recursos do GitHub Co-Pilot, adicionando integrações com várias ferramentas de desenvolvimento e a capacidade de criar extensões privadas personalizadas.

No geral, o evento Microsoft Build mostrou o contínuo foco da empresa em integrar tecnologias de IA em seus produtos e serviços, visando melhorar a produtividade e as experiências do usuário.

Conclusão

Os recentes desenvolvimentos no mundo da IA têm sido bastante agitados. Dos erros da IA da Google aos departamentos-chave que deixaram a OpenAI, a indústria tem sido palco de notícias e controvérsias.

Os resultados da pesquisa da IA da Google levantaram preocupações sobre a confiabilidade e a segurança dos sistemas de IA, com a empresa recomendando soluções questionáveis, como adicionar cola à pizza. Isso destaca a necessidade de testes rigorosos e supervisão para garantir que os sistemas de IA forneçam informações precisas e seguras.

A saída de Yan Lecun, o chefe de super alinhamento da OpenAI, também gerou discussões sobre as prioridades da empresa. As preocupações de Lecun sobre o foco da OpenAI em "produtos brilhantes" em vez de segurança e segurança são um lembrete sóbrio dos desafios no desenvolvimento de sistemas de IA avançados.

Os anúncios da Microsoft no evento Build, incluindo a introdução dos PCs Copilot Plus e o novo recurso Recall, geraram tanto entusiasmo quanto preocupações com a privacidade. Enquanto os recursos alimentados por IA têm promessa, os possíveis riscos de segurança associados ao recurso Recall precisam ser abordados.

No campo da arte de IA, plataformas como a Leonardo AI e a Midjourney continuam evoluindo, introduzindo novos recursos e ferramentas de colaboração. A integração do Adobe Firefly no Lightroom também mostra a crescente integração de ferramentas alimentadas por IA nos fluxos de trabalho criativos.

Em geral, o cenário da IA permanece dinâmico e acelerado, com avanços e desafios emergindo. À medida que a tecnologia continua a evoluir, será crucial que empresas, pesquisadores e o público mantenham uma abordagem equilibrada e responsável para garantir o desenvolvimento seguro e ético dos sistemas de IA.

Perguntas frequentes