أخطاء جوجل الذكاء الاصطناعي: وضع الغراء في البيتزا والمزيد من الأخطاء الصادمة
اكتشف أخطاء الذكاء الاصطناعي الصادمة من Google، بما في ذلك التوصيات بوضع الغراء في البيتزا وأخطاء أخرى غريبة. استكشف أحدث التطورات في الذكاء الاصطناعي من شركات التكنولوجيا الكبرى مثل Microsoft و Meta وغيرها. ابق على اطلاع على المشهد المتطور لتكنولوجيا الذكاء الاصطناعي وتداعياتها.
٢٤ فبراير ٢٠٢٥

اكتشف أحدث الأخبار والرؤى المتعلقة بالذكاء الاصطناعي في هذا المنشور المعلوماتي. استكشف التحديات التي تواجهها شركات التكنولوجيا الكبرى مثل Google و OpenAI، وتعرف على التطورات المثيرة في الميزات المدعومة بالذكاء الاصطناعي من Microsoft. كن على رأس الموجة واكتسب فهمًا أعمق لعالم الذكاء الاصطناعي المتطور بسرعة.
أخطاء جوجل في الذكاء الاصطناعي: توصيات كارثية خاطئة
يان لو يغادر OpenAI ويثير مخاوف السلامة
جدل OpenAI حول الصوت: نزاع سكارليت جوهانسون
شراكة OpenAI مع News Corp: آثار محتملة للتحيز
شائعة: آبل لتكامل نماذج OpenAI في Siri
أبرز أحداث Microsoft Build: أجهزة الكمبيوتر المساعدة، ميزة الاسترجاع، والمزيد
الخاتمة
أخطاء جوجل في الذكاء الاصطناعي: توصيات كارثية خاطئة
أخطاء جوجل في الذكاء الاصطناعي: توصيات كارثية خاطئة
يبدو أن جهود الذكاء الاصطناعي الأخيرة لشركة Google قد تعرضت لبعض المشاكل الرئيسية، كما هو موضح من خلال الردود المقلقة التي قدمها الذكاء الاصطناعي عند الاستفسار عنها مباشرة من خلال بحث Google.
بعض أمثلة التوصيات المشكلة للذكاء الاصطناعي تشمل:
- اقتراح إضافة غراء غير سام إلى صلصة البيتزا لجعل الجبن يلتصق بشكل أفضل.
- الادعاء بأن عام 1919 كان قبل 20 عامًا.
- توصية النساء الحوامل بالتدخين من 2 إلى 3 سجائر في اليوم.
- القول إنه من الآمن دائمًا ترك الكلب في سيارة ساخنة.
- تزوير تفاصيل عن وفاة شخصية خيالية من سبونج بوب.
- تقديم عملية معقدة متعددة الخطوات لتحديد عدد أخوات شخص ما.
هذه الردود المولدة بواسطة الذكاء الاصطناعي ليست فقط غير دقيقة، ولكن في العديد من الحالات قد تكون ضارة بشكل نشط إذا تم اتباعها. يبدو أن الذكاء الاصطناعي لشركة Google يواجه صعوبة في تقديم معلومات موثوقة وحقيقية عند الاستفسار عنها مباشرة، مما يثير مخاوف خطيرة بشأن سلامة وموثوقية دمج هذه التكنولوجيا في وظائف البحث الأساسية.
في حين ادعت Google أن الصوت المستخدم في عرض GPT-4 الأخير لم يكن صوت سكارليت جوهانسون، فإن التشابه أثار جدلاً وأسئلة حول ممارساتهم. كما أن شراكة الشركة مع News Corp تثير أيضًا مخاوف بشأن التحيزات المحتملة، على الرغم من أن Google تؤكد أن البيانات التدريبية الحالية هي المصدر الرئيسي للقلق، وليس المحتوى الجديد المتاح.
بشكل عام، تسلط هذه الحوادث الضوء على الحاجة الحرجة إلى اختبار صارم ورقابة وشفافية مع تكامل أنظمة الذكاء الاصطناعي بشكل أعمق في الخدمات اليومية. سيحتاج Google إلى معالجة هذه المشاكل بسرعة للحفاظ على ثقة المستخدمين وضمان سلامة عروضها المدعومة بالذكاء الاصطناعي.
يان لو يغادر OpenAI ويثير مخاوف السلامة
يان لو يغادر OpenAI ويثير مخاوف السلامة
غادر يان لوو، رئيس محاذاة الذكاء الفائق في OpenAI، الشركة. في سلسلة تغريدات على تويتر، أعرب لوو عن مخاوفه بشأن أولويات OpenAI، مشيرًا إلى أنه "كان يختلف مع قيادة OpenAI بشأن الأولويات الأساسية للشركة لفترة طويلة".
يعتقد لوو أن ينبغي أن تنفق OpenAI المزيد من طاقتها على "الاستعداد للأجيال القادمة من النماذج فيما يتعلق بمراقبة الأمان والاستعداد والسلامة والمقاومة الضارة والمحاذاة الفائقة والسرية والتأثير المجتمعي والمواضيع ذات الصلة". وهو قلق من أن هذه المجالات البحثية الحاسمة قد تم تجاهلها لصالح "المنتجات اللامعة".
جاء رحيل لوو بعد رحيل إيليا سوتسكيفر، العالم الرئيسي في OpenAI. في حين أن سوتسكيفر غادر على أساس جيد، يبدو أن خروج لوو كان أكثر تنازعًا، مع الاقتراح بأن موظفي OpenAI الذين ينتقدون الشركة قد يواجهون عواقب، مثل فقدان الأسهم المكتسبة.
اعترف الرئيس التنفيذي لشركة OpenAI، سام ألتمان، بمخاوف لوو وأكد أن الشركة ملتزمة بمعالجتها. ومع ذلك، فإن الموقف يسلط الضوء على النقاش المستمر داخل مجتمع الذكاء الاصطناعي بشأن التوازن بين الابتكار والسلامة.
مع استمرار تطوير أنظمة الذكاء الاصطناعي المتقدمة، تزداد أهمية تحديد الأولويات للسلامة والمحاذاة مع القيم البشرية. ويؤكد رحيل لوو من OpenAI على الحاجة إلى أن تحافظ شركات الذكاء الاصطناعي على تركيز قوي على هذه القضايا الحاسمة.
جدل OpenAI حول الصوت: نزاع سكارليت جوهانسون
جدل OpenAI حول الصوت: نزاع سكارليت جوهانسون
وفقًا للتقارير، فإن العرض الأخير لشركة OpenAI لـ GPT-4 تضمن صوتًا شبيهًا جدًا بصوت الممثلة سكارليت جوهانسون من فيلم "Her". ظاهريًا، قامت OpenAI بالتواصل مع جوهانسون لاستخدام صوتها، ولكنها رفضت. ومع ذلك، تدعي OpenAI أنهم استأجروا ممثلًا صوتيًا كان صوته مشابهًا، ولم يكن من نيتهم أبدًا تكرار صوت جوهانسون.
هذا قد أدى إلى جدل، حيث يعتقد الكثيرون أن OpenAI وجدت طريقة لاستخدام ممثل صوتي يشبه جوهانسون، على الرغم من أنهم رفضوا استخدام صوتها الفعلي. في حين تؤكد OpenAI أنها لم تنسخ صوت جوهانسون، يبدو أن الجمهور قد انحاز إلى الممثلة، معتبرًا ذلك حالة رمادية.
النقاط الرئيسية هي:
- تواصلت OpenAI مع سكارليت جوهانسون لاستخدام صوتها، ولكنها رفضت.
- تدعي OpenAI أنهم استأجروا ممثلًا صوتيًا كان صوته مشابهًا، ولم يكن من نيتهم تكرار صوت جوهانسون.
- يعتقد الكثيرون أن OpenAI وجدت طريقة لاستخدام ممثل صوتي مشابه، على الرغم من أنهم رفضوا صوت جوهانسون الفعلي.
- إنها حالة جدلية رمادية، حيث ينحاز الجمهور أكثر إلى جوهانسون في هذه القضية.
بشكل عام، أثار هذا الحادث أسئلة حول أخلاقيات وشفافية توليد الصوت الاصطناعي، خاصة عندما يتعلق الأمر باستخدام أصوات تشبه الأشخاص الحقيقيين دون موافقتهم.
شراكة OpenAI مع News Corp: آثار محتملة للتحيز
شراكة OpenAI مع News Corp: آثار محتملة للتحيز
أعلنت OpenAI مؤخرًا عن شراكة مع News Corp، مما يتيح لهم الوصول إلى محتوى من منشورات إخبارية ومعلوماتية رئيسية. هذا أثار مخاوف بشأن إمكانية إدخال تحيزات في نماذج اللغة لدى OpenAI، وخاصة ChatGPT. ومع ذلك، الواقع هو أن المحتوى من News Corp على الأرجح قد تم تدريبه بالفعل في ChatGPT، وهذه الشراكة ببساطة توفر نهجًا أكثر أخلاقية وشفافية للوصول إلى هذه البيانات. من غير المتوقع أن تؤدي التحيزات الحالية في بيانات التدريب إلى تغييرات كبيرة بموجب هذا الاتفاق الجديد.
بينما تُعرف News Corp بميولها السياسية الأكثر تطرفًا، خاصة من خلال قسم Fox News، لا يُتوقع أن يكون لها تأثير كبير على مخرجات ChatGPT. لقد تم تدريب النموذج اللغوي بالفعل على كمية هائلة من البيانات عبر الإنترنت، والتي على الأرجح تتضمن محتوى من مجموعة واسعة من مصادر الأخبار، سواء كانت ذات توجه سياسي يساري أو يميني.
توفر الشراكة مع News Corp لشركة OpenAI الإذن القانوني لاستخدام هذا المحتوى في تدريباتها المستقبلية، بدلاً من الاعتماد على مصادر بيانات محتملة التحيز أو غير كاملة. هذه الخطوة نحو الشفافية والاستحواذ الأخلاقي على البيانات هي خطوة إيجابية، حتى لو كان التأثير العملي على مخرجات ChatGPT محدودًا.
في النهاية، على الرغم من أن الشراكة مع News Corp تثير مخاوف صالحة بشأن التحيزات المحتملة، فإن الواقع هو أن مخرجات ChatGPT على الأرجح قد تأثرت بالفعل بمجموعة متنوعة من مصادر الأخبار، سواء من حيث الميول السياسية أو الجودة. إن الشراكة هي أكثر عن تقنين وشرعنة مصادر البيانات المستخدمة، بدلاً من إدخال تحيزات جديدة كبيرة في النموذج اللغوي.
شائعة: آبل لتكامل نماذج OpenAI في Siri
شائعة: آبل لتكامل نماذج OpenAI في Siri
هذا ينتمي أكثر إلى مجال الشائعات، ولكن هناك ادعاء يستحق المناقشة. وفقًا لموقع Mac Daily News، هناك شائعة بأن Apple ستتعاون مع OpenAI وسيتم الإعلان عن ذلك في WWDC.
تم أيضًا الإبلاغ عن هذا من قبل Bloomberg، ولكن لم يتم تأكيده بعد من قبل Apple أو OpenAI. الشائعة الحالية هي أن الإصدار الجديد من Siri في الهاتف iPhone التالي من Apple قد يتم تشغيله بواسطة أحدث نماذج GPT من OpenAI.
لقد سمعنا أيضًا شائعات بأن Apple كانت تتحدث إلى Google بشأن دمج Gemini، وهو نموذج لغة كبير آخر، في منتجاتها. ومع ذلك، لن نعرف على وجه اليقين ما سيكون النتيجة حتى يحدث حدث WWDC.
إذا كانت الشائعة صحيحة، وقامت Apple في النهاية بدمج نماذج OpenAI في Siri، فقد يؤدي ذلك إلى تحسينات كبيرة في قدرات Siri. أظهرت نماذج اللغة مثل GPT-4 من OpenAI أداءً مвпечатляющ في مجموعة متنوعة من المهام. قد يساعد دمج هذه النماذج في جعل Siri أكثر تفاعلية ومعرفة وقادرة على فهم الاستفسارات باللغة الطبيعية والرد عليها.
في الوقت نفسه، قد تكون هناك مخاوف بشأن التحيزات أو القيود المحتملة التي قد تُدخلها نماذج OpenAI. سيكون من المهم بالنسبة لشركة Apple أن تقيم وتعالج أي مشاكل من هذا القبيل بعناية لضمان بقاء Siri موثوقًا وموثوقًا به.
بشكل عام، فإ
التعليمات
التعليمات