Ошибки Google AI: добавление клея в пиццу и другие шокирующие ошибки

Откройте для себя шокирующие ошибки ИИ от Google, включая рекомендации по добавлению клея в пиццу и другие странные ошибки. Исследуйте последние разработки в области ИИ от таких технологических гигантов, как Microsoft, Meta и другие. Будьте в курсе развивающегося ландшафта технологий ИИ и их последствий.

24 февраля 2025 г.

party-gif

Откройте для себя последние новости и идеи об ИИ в этом информативном блоге. Исследуйте проблемы, с которыми сталкиваются такие технологические гиганты, как Google и OpenAI, и узнайте о захватывающих разработках в функциях, управляемых ИИ, от Microsoft. Будьте на шаг впереди и глубже понимайте быстро развивающийся мир искусственного интеллекта.

Ошибки ИИ Google: ужасные рекомендации, пошедшие не так

Кажется, последние усилия Google в области ИИ были омрачены некоторыми серьезными проблемами, о чем свидетельствуют многочисленные тревожные ответы, которые их ИИ предоставил при прямом запросе через Google Search.

Некоторые примеры проблемных рекомендаций ИИ включают:

  • Предложение добавить нетоксичный клей в томатный соус, чтобы сыр лучше прилипал.
  • Утверждение, что 1919 год был 20 лет назад.
  • Рекомендация беременным женщинам курить 2-3 сигареты в день.
  • Заявление, что всегда безопасно оставлять собаку в горячей машине.
  • Фабрикация деталей о вымышленной смерти персонажа из мультфильма "Губка Боб Квадратные Штаны".
  • Предоставление запутанного многоэтапного процесса для определения количества сестер человека.

Эти ответы, сгенерированные ИИ, не только неточны, но во многих случаях могут быть активно вредными, если им следовать. Похоже, что ИИ Google испытывает трудности с предоставлением надежной, фактической информации при прямом запросе, что вызывает серьезные опасения относительно безопасности и надежности интеграции такой технологии в основные функции поиска.

Ян Луо покидает OpenAI, выражает опасения по поводу безопасности

Янь Луо, глава отдела супер-согласованности в OpenAI, покинул компанию. В ветке на Twitter Луо выразил обеспокоенность приоритетами OpenAI, заявив, что он "расходился во мнениях с руководством OpenAI по поводу основных приоритетов компании в течение довольно длительного времени".

Луо считает, что больше ресурсов OpenAI следует тратить на "подготовку к следующим поколениям моделей в области мониторинга безопасности, готовности, безопасности, устойчивости к атакам, супер-согласованности, конфиденциальности, социального воздействия и связанных с ними тем". Он обеспокоен тем, что эти важные области исследований отошли на второй план по сравнению с "блестящими продуктами".

Уход Луо последовал вскоре после ухода Ильи Сутскевера, главного ученого OpenAI. В то время как Сутскевер ушел по обоюдному согласию, уход Луо, похоже, был более противоречивым, с намеком на то, что сотрудники OpenAI, критикующие компанию, могут столкнуться с последствиями, такими как потеря накопленной доли.

Генеральный директор OpenAI, Сэм Алтман, признал озабоченность Луо и заявил, что компания привержена решению этих проблем. Однако ситуация подчеркивает продолжающуюся дискуссию в сообществе ИИ о балансе между инновациями и безопасностью.

Скандал с голосом OpenAI: спор со Скарлетт Йоханссон

Согласно сообщениям, недавняя демонстрация GPT-4 от OpenAI включала голос, очень похожий на голос актрисы Скарлетт Йоханссон из фильма "Она". Похоже, OpenAI связывался с Йоханссон, чтобы использовать ее голос, но она отказалась. Однако OpenAI утверждает, что они наняли актера озвучивания, чей голос случайно оказался похожим, и они никогда не имели намерения копировать голос Йоханссон.

Это привело к скандалу, при этом многие считают, что OpenAI просто нашел способ использовать актера озвучивания, который звучал как Йоханссон, хотя им было отказано в использовании ее реального голоса. В то время как OpenAI настаивает, что они не копировали голос Йоханссон, общественность, похоже, встала на сторону актрисы, рассматривая это как спорный случай.

Основные моменты:

  • OpenAI связывался со Скарлетт Йоханссон, чтобы использовать ее голос, но она отказалась.
  • OpenAI утверждает, что они наняли актера озвучивания, чей голос случайно оказался похожим, не имея намерения копировать голос Йоханссон.
  • Многие считают, что OpenAI нашел способ использовать голос, похожий на голос Йоханссон, хотя им было отказано в использовании ее реального голоса.
  • Это спорный случай, при этом общественность больше склоняется на сторону Йоханссон.

Партнерство OpenAI с News Corp: потенциальные проблемы с предвзятостью

OpenAI недавно объявила о партнерстве с News Corp, предоставив им доступ к контенту из крупных новостных и информационных изданий. Это вызвало опасения по поводу возможного введения предвзятости в языковые модели OpenAI, в частности, в ChatGPT.

Однако реальность заключается в том, что контент из News Corp, вероятно, уже был включен в обучение ChatGPT, и это партнерство просто обеспечивает более этичный и прозрачный подход к доступу к этим данным. Существующие предвзятости в обучающих данных вряд ли будут значительно изменены этим новым соглашением.

Хотя News Corp известна своими более крайними политическими взглядами, особенно через свое подразделение Fox News, влияние на выходные данные ChatGPT, как ожидается, будет незначительным. Языковая модель уже была обучена на огромном количестве онлайн-данных, которые, вероятно, включают контент из широкого спектра новостных источников, как левых, так и правых.

Партнерство с News Corp просто предоставляет OpenAI юридическое разрешение на использование этого контента в своем будущем обучении, вместо того, чтобы полагаться на потенциально предвзятые или неполные источники данных. Этот шаг к прозрачности и этичному приобретению данных является положительным, даже если практические последствия для выходных данных ChatGPT могут быть ограниченными.

Слух: Apple интегрирует модели OpenAI в Siri

Это больше относится к области слухов, но это утверждение, о котором стоит поговорить. Согласно веб-сайту Mac Daily News, ходят слухи, что Apple будет сотрудничать с OpenAI, и это будет объявлено на WWDC.

Об этом также сообщал Bloomberg, но это пока не подтверждено ни Apple, ни OpenAI. Текущий слух заключается в том, что новая версия Siri в следующем iPhone Apple может потенциально работать на основе последних моделей GPT от OpenAI.

Мы также слышали слухи о том, что Apple ведет переговоры с Google об интеграции Gemini, другой крупной языковой модели, в свои продукты. Однако мы не будем знать наверняка, каким будет результат, пока не состоится мероприятие WWDC.

Если слух окажется правдой и Apple в конечном итоге интегрирует модели OpenAI в Siri, это может потенциально привести к значительному улучшению возможностей Siri. Языковые модели OpenAI, такие как GPT-4, продемонстрировали впечатляющую производительность в различных задачах. Интеграция этих моделей могла бы помочь сделать Siri более разговорчивой, информированной и способной понимать и отвечать на естественно-языковые запросы.

В то же время могут возникнуть опасения по поводу возможных предвзятостей или ограничений, которые могут быть введены моделями OpenAI. Важно, чтобы Apple тщательно оценила и устранила любые такие проблемы, чтобы Siri оставалась надежным и заслуживающим доверия помощником.

Основные моменты мероприятия Microsoft Build: Co-Pilot PCs, функция Recall и другое

На мероприятии Microsoft Build в Сиэтле технологический гигант представил несколько захватывающих новых функций и обновлений:

  1. Co-Pilot PCs: Microsoft представила "Co-Pilot PCs" - компьютеры с выделенным нейронным процессорным блоком (NPU) для локального запуска ИИ-вывода, позволяющие пользователям взаимодействовать с ИИ-помощниками без необходимости подключения к облаку.

  2. Функция Recall: Была анонсирована новая функция "Recall", которая позволяет пользователям просматривать всю историю использования компьютера, включая просмотр веб-страниц, использование приложений и многое другое. Однако эта функция вызвала опасения по поводу конфиденциальности из-за потенциальной возможности раскрытия чувствительных данных, если устройство будет утеряно или скомпрометировано.

  3. Обновления Microsoft Paint: Microsoft Paint получил улучшения, основанные на ИИ, включая возможность генерировать изображения, улучшать наброски и изменять стиль существующих изображений.

  4. Улучшения браузера Edge: Браузер Microsoft Edge получил новые возможности перевода и транскрипции, позволяющие осуществлять перевод в реальном времени и транскрипцию во время видеозвонков и встреч.

  5. Co-Pilot для Teams: Microsoft представила ИИ-"члена команды", который может быть интегрирован в Microsoft Teams, помогая с задачами, такими как создание контрольных списков и обобщение встреч.

  6. Языковая модель F3: Microsoft объявила о новой мультимодальной небольшой языковой модели под названием "F3", которая, вероятно, будет сравниваться экспертами в этой области с другими крупными языковыми моделями.

  7. Расширения GitHub Co-Pilot: Microsoft расширила возможности GitHub Co-Pilot, добавив интеграцию с различными инструментами разработки и возможность создания пользовательских частных расширений.

Заключение

Последние события в мире ИИ были довольно насыщенными. От ошибок ИИ Google до ухода ключевых фигур из OpenAI, отрасль была полна новостей и противоречий.

Результаты поиска ИИ Google вызвали озабоченность по поводу надежности и безопасности систем ИИ, при этом компания рекомендовала сомнительные решения, такие как добавление клея в пиццу. Это подчеркивает необходимость тщательного тестирования и надзора, чтобы гарантировать, что системы ИИ предоставляют точную и безопасную информацию.

Уход Яня Лекуна, главы отдела супер-согласованности в OpenAI, также вызвал обсуждения относительно приоритетов компании. Озабоченность Лекуна по поводу акцента OpenAI на "блестящих продуктах" вместо безопасности и безопасности является отрезвляющим напоминанием о проблемах в разработке передовых систем ИИ.

Анонсы Microsoft на мероприятии Build, включая введение Copilot Plus PCs и новой функции Recall, вызвали как возбуждение, так и опасения по поводу конфиденциальности. Хотя ИИ-powered возможности несут в себе обещание, потенциальные риски безопасности, связанные с функцией Recall, должны быть устранены.

В области ИИ-арта платформы, такие как Leonardo AI и Midjourney, продолжают развиваться, внедряя новые функции и инструменты для совместной работы. Интеграция Adobe Firefly в Lightroom также демонстрирует растущую интеграцию ИИ-powered инструментов в творческие рабочие процессы.

В целом, ландшафт ИИ остается динамичным и быстро развивающимся, с появлением как достижений, так и проблем. По мере развития технологии будет крайне важно, чтобы компании, исследователи и общественность придерживались сбалансированного и ответственного подхода, чтобы обеспечить безопасную и этичную разработку систем ИИ.

Часто задаваемые вопросы