Google AI-blunders: Lijm in pizza en andere schokkende fouten

Ontdek schokkende AI-blunders van Google, waaronder aanbevelingen om lijm in pizza te doen en andere bizarre fouten. Verken de nieuwste ontwikkelingen in AI van techgiganten als Microsoft, Meta en meer. Blijf op de hoogte van het zich ontwikkelende landschap van AI-technologie en de implicaties ervan.

14 februari 2025

party-gif

Ontdek het laatste AI-nieuws en inzichten in deze informatieve blogpost. Verken de uitdagingen waarmee techgiganten als Google en OpenAI worden geconfronteerd, en leer over de opwindende ontwikkelingen in AI-aangedreven functies van Microsoft. Blijf voorop lopen en krijg een dieper inzicht in de snel evoluerende wereld van kunstmatige intelligentie.

Google's AI-blunders: Rampzalige aanbevelingen die verkeerd zijn gegaan

Het lijkt erop dat de nieuwste AI-inspanningen van Google te kampen hebben gehad met enkele grote problemen, zoals blijkt uit de talrijke zorgwekkende antwoorden die hun AI heeft gegeven bij rechtstreekse vragen via Google Search.

Enkele voorbeelden van de problematische aanbevelingen van de AI zijn:

  • Suggereren om niet-giftige lijm toe te voegen aan pizzasaus om de kaas beter te laten plakken.
  • Beweren dat 1919 20 jaar geleden was.
  • Zwangere vrouwen aanraden om 2-3 sigaretten per dag te roken.
  • Stellen dat het altijd veilig is om een hond in een hete auto achter te laten.
  • Details verzinnen over de fictieve dood van een SpongeBob-personage.
  • Een ingewikkeld meerstapsproces geven om het aantal zussen van een persoon te bepalen.

Deze door AI gegenereerde antwoorden zijn niet alleen onnauwkeurig, maar in veel gevallen ook actief schadelijk als ze worden opgevolgd. Het lijkt erop dat de AI van Google moeite heeft om betrouwbare, feitelijke informatie te verstrekken bij rechtstreekse vragen, wat ernstige zorgen oproept over de veiligheid en betrouwbaarheid van de integratie van dergelijke technologie in de kernzoekfunctionaliteit.

Hoewel Google heeft beweerd dat de stem die in hun recente GPT-4-demo werd gebruikt, niet die van Scarlett Johansson was, heeft de gelijkenis controverse en vragen over hun praktijken doen ontstaan. Het partnerschap van het bedrijf met News Corp wekt ook zorgen over mogelijke vooringenomenheden, hoewel Google volhoudt dat de bestaande trainingsgegevens de primaire zorg zijn, niet de nieuwe inhoudstoegang.

In het algemeen benadrukken deze incidenten de kritieke noodzaak van grondige tests, toezicht en transparantie naarmate AI-systemen dieper worden geïntegreerd in alledaagse diensten. Google zal deze problemen snel moeten aanpakken om het vertrouwen van de gebruikers te behouden en de veiligheid van zijn op AI gebaseerde aanbiedingen te waarborgen.

Yan Luo verlaat OpenAI, uit zorgen over veiligheid

Yan Luo, het hoofd van super-alignment bij OpenAI, heeft het bedrijf verlaten. In een thread op Twitter uitte Luo zijn zorgen over de prioriteiten van OpenAI en stelde dat hij "al geruime tijd van mening verschil heeft met de leiding van OpenAI over de kernprioriteiten van het bedrijf."

Luo is van mening dat meer van de bandbreedte van OpenAI moet worden besteed aan "voorbereiden op de volgende generaties van modellen op het gebied van veiligheidsmonitoring, paraatheid, veiligheid, robuustheid tegen aanvallen, super-alignment, vertrouwelijkheid, maatschappelijke impact en aanverwante onderwerpen." Hij is bezorgd dat deze cruciale onderzoeksgebieden op de achtergrond zijn geraakt ten opzichte van "glimmende producten".

Luo's vertrek komt kort na het vertrek van Ilya Sutskever, de chief scientist van OpenAI. Hoewel Sutskever in goed overleg vertrok, lijkt Luo's vertrek meer omstreden, met de suggestie dat OpenAI-werknemers die het bedrijf bekritiseren, gevolgen kunnen ondervinden, zoals het verlies van opgebouwde aandelen.

De CEO van OpenAI, Sam Altman, heeft Luo's zorgen erkend en verklaard dat het bedrijf zich zal inzetten om deze aan te pakken. De situatie benadrukt echter het voortdurende debat binnen de AI-gemeenschap over de balans tussen innovatie en veiligheid.

Naarmate de ontwikkeling van geavanceerde AI-systemen doorgaat, wordt het belang van het prioriteren van veiligheid en afstemming op menselijke waarden steeds kritischer. Luo's vertrek bij OpenAI onderstreept de noodzaak voor AI-bedrijven om een sterke focus te behouden op deze cruciale kwesties.

OpenAI's stemmencontroversi??: Geschil met Scarlett Johansson

Volgens berichten had de recente demo van GPT-4 door OpenAI een stem die erg leek op die van actrice Scarlett Johansson uit de film "Her". Blijkbaar had OpenAI contact opgenomen met Johansson om haar stem te gebruiken, maar zij weigerde. OpenAI beweert echter dat ze een stemacteur hebben ingehuurd wiens stem toevallig op die van Johansson leek, en dat het nooit hun bedoeling was om Johansson's stem na te bootsen.

Dit heeft geleid tot een controverse, waarbij veel mensen geloven dat OpenAI gewoon een manier heeft gevonden om een stemacteur te gebruiken die op Johansson leek, ook al kregen ze geen toestemming om haar echte stem te gebruiken. Hoewel OpenAI volhoudt dat ze Johansson's stem niet hebben gekopieerd, lijkt het publiek meer de kant van de actrice te kiezen en dit als een grijze zone te zien.

De belangrijkste punten zijn:

  • OpenAI heeft contact opgenomen met Scarlett Johansson om haar stem te gebruiken, maar zij weigerde.
  • OpenAI beweert dat ze een stemacteur hebben ingehuurd wiens stem toevallig op die van Johansson leek, zonder de bedoeling om Johansson's stem na te bootsen.
  • Veel mensen geloven dat OpenAI een manier heeft gevonden om een stemimitator te gebruiken, ook al kregen ze geen toestemming voor Johansson's echte stem.
  • Het is een controversiële grijze zone, waarbij het publiek meer de kant van Johansson kiest.

In het algemeen heeft dit incident vragen opgeroepen over de ethiek en transparantie rond het genereren van AI-stemmen, vooral wanneer het gaat om het gebruiken van stemmen die sterk lijken op echte mensen zonder hun toestemming.

OpenAI's partnerschap met News Corp: Mogelijke gevolgen voor vooringenomenheid

OpenAI heeft onlangs een partnerschap aangekondigd met News Corp, waarbij ze toegang krijgen tot inhoud van grote nieuws- en informatietitels. Dit heeft zorgen opgeroepen over mogelijke vooringenomenheden die in de taalmodellen van OpenAI, met name ChatGPT, kunnen worden geïntroduceerd.

De realiteit is echter dat de inhoud van News Corp waarschijnlijk al in ChatGPT is getraind, en dit partnerschap een meer ethische en transparante benadering biedt voor het toegang krijgen tot deze gegevens. De bestaande vooringenomenheden in de trainingsgegevens zullen waarschijnlijk niet significant worden gewijzigd door deze nieuwe overeenkomst.

Hoewel News Corp bekend staat om zijn extremere politieke neigingen, vooral via zijn Fox News-divisie, wordt niet verwacht dat de impact op de output van ChatGPT substantieel zal zijn. Het taalmodel is al getraind op een enorme hoeveelheid online gegevens, die waarschijnlijk inhoud van een breed scala aan nieuwsbronnen, zowel links- als rechts-georiënteerd, bevat.

Het partnerschap met News Corp biedt OpenAI simpelweg de wettelijke toestemming om deze inhoud in hun toekomstige training te gebruiken, in plaats van te vertrouwen op mogelijk vooringenomen of onvolledige gegevensbronnen. Deze stap naar transparantie en ethische gegevensverwerving is een positieve ontwikkeling, ook al kunnen de praktische gevolgen voor de output van ChatGPT beperkt zijn.

Uiteindelijk, hoewel het partnerschap met News Corp geldige zorgen oproept over mogelijke vooringenomenheden, is de realiteit dat de output van ChatGPT waarschijnlijk al wordt beïnvloed door een diverse reeks nieuwsbronnen, zowel qua politieke voorkeur als kwaliteit. Het partnerschap gaat meer over het formaliseren en legitimeren van de gebruikte gegevensbronnen, dan over het introduceren van significante nieuwe vooringenomenheden in het taalmodel.

Gerucht: Apple zal OpenAI's modellen integreren in Siri

Dit valt meer onder geruchten, maar het is een claim die het bespreken waard is. Volgens de website Mac Daily News gaat er een gerucht dat Apple gaat samenwerken met OpenAI en dat dit op WWDC zal worden aangekondigd.

Dit is ook gemeld door Bloomberg, maar is nog niet bevestigd door zowel Apple als OpenAI. Het huidige gerucht is dat de nieuwe versie van Siri in de volgende Apple iPhone mogelijk aangedreven zou kunnen worden door de nieuwste modellen van GPT van OpenAI.

We hebben ook geruchten gehoord dat Apple in gesprek is geweest met Google over de integratie van Gemini, een ander groot taalmodel, in hun producten. We zullen echter pas zeker weten wat de uitkomst zal zijn tot het WWDC-evenement.

Als het gerucht waar is en Apple uiteindelijk de modellen van OpenAI in Siri integreert, zou dat potentieel kunnen leiden tot aanzienlijke verbeteringen in de mogelijkheden van Siri. De taalmodellen van OpenAI, zoals GPT-4, hebben indrukwekkende prestaties getoond op een verscheidenheid aan taken. Integratie van deze modellen zou kunnen helpen om Siri conversationeler, kennisrijker en beter in staat om natuurlijke taalvragen te begrijpen en te beantwoorden te maken.

Tegelijkertijd kunnen er zorgen zijn over mogelijke vooringenomenheden of beperkingen die door de OpenAI-modellen kunnen worden geïntroduceerd. Het zal belangrijk zijn voor Apple om deze kwesties zorgvuldig te evalueren en aan te pakken om ervoor te zorgen dat Siri een betrouwbare en vertrouwenwekkende assistent blijft.

In het algemeen is het gerucht over een partnerschap tussen Apple en OpenAI voor Siri een intrigerend idee, en het zal interessant zijn om te zien of het realiteit wordt op het aankomende WWDC-evenement. Zoals bij elk gerucht is het het beste om te wachten op officiële bevestiging voordat er conclusies worden getrokken.

Highlights van Microsoft Build-evenement: Co-Pilot-pc's, Recall-functie en meer

Tijdens het Microsoft Build-evenement in Seattle onthulde de techgigant enkele opwindende nieuwe functies en updates:

  1. Co-Pilot-pc's: Microsoft introduceerde "Co-Pilot-pc's" - computers met een speciale Neural Processing Unit (NPU) voor het lokaal uitvoeren van AI-inferentie, waardoor gebruikers kunnen communiceren met AI-assistenten zonder afhankelijk te zijn van de cloud.

  2. Recall-functie: Een nieuwe functie genaamd "Recall" werd aangekondigd, waarmee gebruikers de volledige gebruiksgeschiedenis van hun computer, inclusief browsen, applicaties en meer, kunnen bekijken. Deze functie riep echter privacyzorgen op vanwege de mogelijke blootstelling van gevoelige gegevens als het apparaat verloren of gecompromitteerd raakt.

  3. Upgrades voor Microsoft Paint: Microsoft Paint kreeg AI-aangedreven verbeteringen, waaronder de mogelijkheid om afbeeldingen te genereren, schetsen te verbeteren en bestaande afbeeldingen opnieuw te stylen.

  4. Verbeteringen in de Edge-browser: De Microsoft Edge-browser kreeg nieuwe vertaal- en transcriptiecapabiliteiten, waardoor realtime taalvertaling en transcriptie mogelijk zijn tijdens videogesprekken en vergaderingen.

  5. Co-Pilot voor Teams: Microsoft introduceerde een AI "teamlid" dat kan worden geïntegreerd in Microsoft Teams, om taken zoals het maken van checklists en het samenvatten van vergaderingen te ondersteunen.

  6. F3-taalmodel: Microsoft kondigde een nieuw multimodaal klein taalmodel aan, genaamd "F3", dat waarschijnlijk door experts in het veld zal worden vergeleken met andere grote taalmodellen.

  7. GitHub Co-Pilot-extensies: Microsoft breidde de mogelijkheden van GitHub Co-Pilot uit, met integraties met verschillende ontwikkeltools en de mogelijkheid om aangepaste private extensies te maken.

In het algemeen toonde het Microsoft Build-evenement de voortdurende focus van het bedrijf op de integratie van AI-technologieën in zijn producten en diensten, met als doel de productiviteit en gebruikerservaringen te verbeteren.

Conclusie

De recente ontwikkelingen in de wereld van AI zijn behoorlijk dynamisch geweest. Van de AI-blunders van Google tot het vertrek van sleutelfiguren bij OpenAI, de industrie is in rep en roer geweest met nieuws en controverses.

De Google AI-zoekresultaten hebben zorgen opgeroepen over de betrouwbaarheid en veiligheid van AI-systemen, waarbij het bedrijf twijfelachtige oplossingen aanraadt zoals het toevoegen van lijm aan pizza. Dit benadrukt de noodzaak van grondige tests en toezicht om ervoor te zorgen dat AI-systemen accurate en veilige informatie verstrekken.

Het vertrek van Yan Lecun, het hoofd van super-alignment bij OpenAI, heeft ook discussies aangewakkerd over de prioriteiten van het bedrijf. Lecun's zorgen over de focus van OpenAI op "glimmende producten" in plaats van veiligheid en beveiliging zijn een somber signaal over de uitdagingen bij de ontwikkeling van geavanceerde AI-systemen.

De aankondigingen van Microsoft op het Build-evenement, waaronder de introductie van de Copilot Plus-pc's en de nieuwe Recall-functie, hebben zowel opwinding als privacyzorgen gegenereerd. Hoewel de AI-aangedreven mogelijkheden veelbelovend zijn, moeten de potentiële beveiligingsrisico's van de Recall-functie worden aangepakt.

Op het gebied van AI-kunst blijven platforms als Leonardo AI en Midjourney evolueren, met nieuwe functies en samenwerkingstools. De integratie van Adobe Firefly in Lightroom laat ook zien hoe AI-aangedreven tools steeds meer worden opgenomen in creatieve workflows.

In het algemeen blijft het AI-landschap dynamisch en snel, met zowel vooruitgang als uitdagingen. Naarmate de technologie zich blijft ontwikkelen, zal het cruciaal zijn voor bedrijven, onderzoekers en het publiek om een evenwichtige en verantwoordelijke benadering te handhaven om de veilige en ethische ontwikkeling van AI-systemen te waarborgen.

FAQ