أخبار الذكاء الاصطناعي: روبوت AI الجديد من مايكروسوفت، OpenAI تُقاضى، GitHub Copilot وتحديثات Claude 3

في هذا الموجز الإخباري عن الذكاء الاصطناعي، نغطي روبوت الذكاء الاصطناعي الجديد من مايكروسوفت، وقضية رفع دعوى قضائية ضد OpenAI من قبل الصحف، وتحديثات على Claude 3، وخطاب TED حول مستقبل الذكاء الاصطناعي، وإطار مخاطر الذكاء الاصطناعي من NIST، وتعاون مايكروسوفت مع Sanctuary AI على الروبوتات الإنسانية. وتشمل المواضيع الرئيسية التحديات القانونية، وسلامة الذكاء الاصطناعي، والروبوتات، وتطور نماذج اللغة.

٢٠ فبراير ٢٠٢٥

party-gif

اكتشف أحدث التطورات في الذكاء الاصطناعي، من روبوت الذكاء الاصطناعي الجديد من مايكروسوفت إلى المعارك القانونية لـ OpenAI، وتحديثات GitHub Copilot، والمزيد. يقدم هذا المنشور مراجعة شاملة لأهم أخبار وتطورات الذكاء الاصطناعي، مقدمًا رؤى يمكن أن تساعدك على البقاء في طليعة هذا المجال المتطور بسرعة.

قضية ضد OpenAI من قبل ثمانية صحف: الادعاءات والتداعيات

قامت ثماني صحف يومية مملوكة لشركة Alden Global Capital برفع دعوى قضائية ضد OpenAI و Microsoft، متهمة الشركات التقنية باستخدام المقالات الإخبارية بشكل غير قانوني لتشغيل روبوتات الدردشة الخاصة بهم. تزعم المنشورات، بما في ذلك صحيفة نيويورك ديلي نيوز وشيكاغو تريبيون وأورلاندو سنتينل، أن روبوتات الدردشة كشفت بانتظام عن مقالات كاملة خلف حواجز الاشتراك، مما قلل من الحاجة لقراء الدفع مقابل الاشتراكات وحرم الناشرين من الإيرادات من الاشتراكات والترخيص للمحتوى.

تزعم الصحف أن OpenAI و Microsoft "أنفقوا مليارات الدولارات في جمع المعلومات وتقديم الأخبار" ولا يمكنهم السماح للشركات التقنية "بسرقة عملهم لبناء أعمالهم الخاصة على حسابنا". يزعم الشكوى أن روبوتات الدردشة غالبًا ما لا ترتبط بشكل بارز بالمصدر، مما يقلل أكثر من الحاجة لقراء الدفع مقابل الاشتراكات.

تسلط هذه الدعوى القضائية الضوء على النقاش المستمر حول استخدام المحتوى المحمي بحقوق الطبع والنشر في تدريب نماذج الذكاء الاصطناعي. قد يؤدي نتيجة هذه القضية إلى إرساء سابقة للدعاوى القضائية المستقبلية، حيث قد يتقدم المزيد من منشئي المحتوى والناشرين للمطالبة بالتعويض عن استخدام أعمالهم في أنظمة الذكاء الاصطناعي. سيكون حل هذه القضية حاسمًا في تحديد حدود ومسؤوليات شركات الذكاء الاصطناعي عند استخدام المعلومات المتاحة للجمهور.

تحديث Claude AI: التكامل مع فرق Microsoft وتطبيق الجوال

قام المساعد الذكي Claude الذي طورته Anthropic بتلقي تحديث كبير يتضمن إدخال التكامل مع Teams وتطبيق محمول.

يتيح التكامل مع Teams للمستخدمين التعاون بسلاسة مع فرقهم باستخدام Claude. تمكن هذه الميزة المستخدمين من مشاركة وناقشة أعمالهم مع الزملاء، مما يجعل من الأسهل الاستفادة من قدرات Claude في بيئة الفريق. يضمن حد الاستخدام المتزايد الذي يوفره طبقة Teams أيضًا أن يتمكن المستخدمون من إجراء المزيد من المحادثات مع Claude، مما يعزز إنتاجيتهم وكفاءتهم بشكل أكبر.

من ناحية أخرى، يوفر التطبيق المحمول للمستخدمين القدرة على الوصول إلى Claude أثناء التنقل. هذا مفيد بشكل خاص للأشخاص الذين يحتاجون إلى الاستفادة من قدرات Claude أثناء التواجد بعيدًا عن أجهزة الكمبيوتر المكتبية. يتيح التطبيق المحمول للمستخدمين الاستفادة من قدرات الرؤية لدى Claude، حيث يمكنهم الآن نقل الصور مباشرة من هواتفهم إلى المساعد الذكي دون الحاجة إلى التبديل بين الأجهزة.

اتجاهات الذكاء الاصطناعي: صعود تجارب الذكاء الاصطناعي الشخصية

تعد هذه التحديثات لـ Claude إضافة مرحب بها، حيث تعالج بعض القيود التي كانت موجودة سابقًا في المساعد الذكي. يجعل التكامل مع Teams والوظائف التطبيق المحمول Claude أكثر إمكانية الوصول وتنوعًا، مما يتيح للمستخدمين الاستفادة من قدراته في مجموعة أوسع من السيناريوهات. مع تطور الذكاء الاصطناعي وازدياد اندماجه في حياتنا اليومية، تعد هذه النوع من التحديثات أمرًا حاسمًا لضمان بقاء التكنولوجيا ذات صلة وفائدة لمجموعة متنوعة من المستخدمين وحالات الاستخدام.

ارتباك بشأن نموذج GPT-2: التكهنات والشكوك

يتطور عالم الذكاء الاصطناعي بسرعة، وأحد الاتجاهات الناشئة هو ظهور تجارب الذكاء الاصطناعي الشخصية. مع تقدم أنظمة الذكاء الاصطناعي، تتحول الشركات إلى التركيز على إنشاء تجارب مستخدم فريدة وجذابة يمكن أن تحتفظ بانتباه المستخدمين لفترات أطول.

مثال بارز على هذا الاتجاه هو ظهور منصات مثل Character AI، التي جمعت قاعدة مستخدمين كبيرة من خلال تقديم تجارب الدردشة الشخصية. تتيح هذه المنصات للمستخدمين التفاعل مع مجموعة متنوعة من الشخصيات التي أنشأها المستخدمون، مما يعزز تجربة أكثر غمرًا وجذبًا مقارنة بمساعدات الذكاء الاصطناعي التقليدية للإجابة على الأسئلة.

تشير البيانات إلى أن هذه منصات الذكاء الاصطناعي الشخصية تجذب شريحة عمرية أصغر، حيث يشكل ما يقرب من 60% من جمهور Character AI الفئة العمرية 18-24 عامًا. هذا يشير إلى أن الجيل القادم من مستخدمي الذكاء الاصطناعي قد يكونون أكثر جذبًا للتجارب التي تقدم مستوى أعمق من التخصيص والتفاعلية.

علاوة على ذلك، فإن التحول في أنماط مشاركة المستخدمين ملحوظ. في حين شهدت منصات مثل ChatGPT انخفاضًا في حركة المرور عبر الويب خلال أشهر الصيف، على الأرجح بسبب انخفاض الاستخدام الأكاديمي والمهني، حافظت منصات الذكاء الاصطناعي الشخصية على قاعدة مستخدمين أكثر اتساقًا. هذا يشير إلى أن هذه المنصات قد تكون أكثر قدرة على الاحتفاظ بانتباه المستخدمين وإشراكهم على مر الوقت.

مع استمرار تطور مشهد الذكاء الاصطناعي، من الواضح أن القدرة على إنشاء تجارب مستخدم شخصية وجذابة ستكون عاملاً رئيسيًا في تحديد نجاح شركات الذكاء الاصطناعي. تشير الاستثمارات والنمو في منصات مثل Character AI إلى أن مستقبل الذكاء الاصطناعي قد يكمن في تطوير تجارب أكثر غمرًا ومركزة على المستخدم، بدلاً من التركيز الحصري على نماذج اللغة العامة.

NIST يصدر إطار إدارة مخاطر الذكاء الاصطناعي: التركيزات الرئيسية والاعتبارات

أثار الإصدار الأخير لنموذج يُسمى "GPT2" الكثير من الارتباك والتكهنات في مجتمع الذكاء الاصطناعي. بعض النقاط الرئيسية حول هذا الموقف:

  • يُسمى النموذج "GPT2", وهذا أمر محير حيث يبدو أنه غير مرتبط بالنموذج GPT-2 الفعلي الذي أطلقته OpenAI في عام 2019. هذا الاختيار للاسم أضاف المزيد من الارتباك.

  • هناك العديد من النظريات التي تتداول حول ما هو هذا النموذج "GPT2" الجديد. يعتقد البعض أنه قد يكون إصدارًا مرتبطًا بشكل وثيق بـ GPT-2 الأصلي، بينما يعتقد آخرون أنه قد يكون معمارية جديدة تمامًا.

  • حقيقة أن سام ألتمان، الرئيس التنفيذي لـ OpenAI، قد غرد حول هذا النموذج "GPT2" زادت من الشائعات والتكهنات، حيث يتساءل الناس ما إذا كان هذا متصلاً بأعمال OpenAI.

  • بشكل عام، هناك الكثير من عدم اليقين حول أصول وقدرات والغرض من هذا النموذج "GPT2". أدى عدم وجود معلومات واضحة من المطورين إلى انتشار الكثير من النظريات والتكهنات في مجتمع الذكاء الاصطناعي.

بدون مزيد من التفاصيل من الخالقين، من الصعب القول بشكل قاطع ما يمثله هذا النموذج "GPT2" الجديد. قد يكون نظامًا تجريبيًا، أو اختبارًا لمحرك استدلال جديد، أو شيئًا آخر تمامًا. الغموض حول طبيعته وعلاقته بنماذج GPT السابقة أثار الكثير من المناقشة وعدم اليقين في مجال الذكاء الاصطناعي.

تعاون Sanctuary AI و Microsoft: تسريع الروبوتات الإنسانية

أصدر المعهد الوطني للمعايير والتكنولوجيا (NIST) إطار إدارة المخاطر NIST AI 600-1، والذي يركز على إدارة الذكاء الاصطناعي التوليدي. يهدف هذا الإطار إلى تقييم المخاطر المرتبطة باستخدام أنظمة الذكاء الاصطناعي، خاصة في المجالات التالية:

  1. مخاطر معلومات CBRN: يسلط الإطار الضوء على إمكانية قيام روبوتات الدردشة بتسهيل تحليل ونشر المعلومات المتعلقة بأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN)، مما قد يزيد من سهولة البحث للجهات الفاعلة الخبيثة.

  2. الافتراضات: يعالج الإطار مخاطر قيام المستخدمين بالاعتقاد بالمحتوى الكاذب الذي ينشئه نظام الذكاء الاصطناعي بسبب الطبيعة الواثقة للردود أو المنطق والاقتباسات المصاحبة، مما يؤدي إلى تعزيز المعلومات المضللة.

  3. المحتوى المتحيز والمتجانس: يعترف الإطار بإمكانية قيام أنظمة الذكاء الاصطناعي بإنشاء محتوى متحيز أو متجانس، مما قد يكون له آثار سلبية على المجتمع.

  4. سلامة المعلومات: يركز الإطار على مخاطر إضعاف أنظمة الذكاء الاصطناعي لسلامة المعلومات، مما قد يؤدي إلى انتشار محتوى كاذب أو مضلل.

  5. التأثير البيئي: يأخذ الإطار في الاعتبار التأثير البيئي لأنظمة الذكاء الاصطناعي، بما في ذلك استهلاكها للطاقة وبصمتها الكربونية.

يؤكد إطار NIST AI 600-1 على أهمية إدارة المخاطر الاستباقية والحاجة إلى قيام مطوري ومستخدمي الذكاء الاصطناعي بتقييم المخاطر المحتملة المرتبطة بنشر أ

التعليمات