طبقة الثقة في الذكاء الاصطناعي: حل جديد لمشكلة التحيز والوهم في الذكاء الاصطناعي
مؤخراً، جذب إصدار تجريبي عام على الإنترنت يسمى Mira انتباه الصناعة. يهدف هذا المشروع إلى بناء طبقة الثقة للذكاء الاصطناعي، بهدف معالجة المشكلات المتعلقة بالتحيز و "الهلوسة" الموجودة في أنظمة الذكاء الاصطناعي. إذن، لماذا يحتاج الذكاء الاصطناعي إلى الثقة؟ وكيف تتعامل Mira مع هذا التحدي؟
عند مناقشة الذكاء الاصطناعي، غالبًا ما يركز الناس على قدراته القوية. ومع ذلك، فإن حقيقة وجود "أوهام" أو تحيزات في الذكاء الاصطناعي غالبًا ما يتم تجاهلها. ما يسمى "أوهام" الذكاء الاصطناعي، ببساطة، يعني أن الذكاء الاصطناعي أحيانًا "يخترع" أشياء، ويقدم معلومات خاطئة بثقة. على سبيل المثال، عند سؤاله عن سبب كون القمر ورديًا، قد يقدم الذكاء الاصطناعي تفسيرًا يبدو معقولًا ولكنه خيالي تمامًا.
تتعلق هذه الظاهرة بمسار تكنولوجيا الذكاء الاصطناعي الحالي. يحقق الذكاء الاصطناعي التوليدي التماسك والموثوقية من خلال التنبؤ بالمحتوى "الأكثر احتمالاً"، لكن هذه الطريقة يصعب التحقق من صحتها. بالإضافة إلى ذلك، قد تحتوي بيانات التدريب نفسها على أخطاء أو تحيزات أو حتى محتوى مختلق، وكل ذلك يؤثر على جودة مخرجات الذكاء الاصطناعي. بعبارة أخرى، يتعلم الذكاء الاصطناعي أنماط اللغة البشرية، وليس الحقائق نفسها.
آلية توليد الاحتمالات الحالية ونموذج البيانات المدفوعة تؤدي تقريبًا بشكل لا مفر منه إلى إنتاج الذكاء الاصطناعي لـ "أوهام". على الرغم من أن هذه المشكلة قد لا تؤدي إلى عواقب وخيمة على الفور في المحتوى المعرفي العام أو المحتوى الترفيهي، إلا أن الإخراج الخاطئ للذكاء الاصطناعي في مجالات مثل الطب والقانون والطيران والمالية، التي تتطلب دقة عالية، قد يكون له تأثيرات كبيرة. لذلك، أصبحت معالجة وهم الذكاء الاصطناعي والتحيز من بين القضايا الرئيسية في عملية تطوير الذكاء الاصطناعي.
يهدف مشروع ميرا إلى حل هذه المشكلة. يحاول تقليل التحيز والأوهام وزيادة موثوقية الذكاء الاصطناعي من خلال بناء طبقة الثقة للذكاء الاصطناعي. الفكرة الأساسية لميرا هي استخدام توافق عدة نماذج ذكاء اصطناعي للتحقق من مخرجات الذكاء الاصطناعي. تستفيد شبكة التحقق هذه من آلية التوافق اللامركزية، مع دمج التعاون بين النماذج المتعددة، من خلال نموذج التحقق الجماعي لتقليل حدوث التحيز والأوهام.
فيما يتعلق بهيكل التحقق، يدعم بروتوكول ميرا تحويل المحتوى المعقد إلى تصريحات يمكن التحقق منها بشكل مستقل. يشارك مشغلو العقد في التحقق من هذه التصريحات، ولضمان نزاهة مشغلي العقد، يعتمد النظام على آلية تحفيز/عقاب اقتصادية مشفرة. تشارك نماذج الذكاء الاصطناعي المختلفة ومشغلو العقد الموزعين لضمان موثوقية نتائج التحقق.
تتضمن بنية شبكة ميرا ثلاثة جوانب رئيسية: تحويل المحتوى، والتحقق الموزع، وآلية الإجماع. أولاً، يقوم النظام بتفكيك المحتوى المرشح الذي قدمه العميل إلى بيانات قابلة للتحقق مختلفة، تُوزع هذه البيانات على العقد للتحقق منها. بعد أن تحدد العقد صحة البيانات، يتم تجميع النتائج للتوصل إلى إجماع، وأخيرًا يتم إرجاع النتائج إلى العميل. لحماية خصوصية العميل، يتم توزيع البيانات بطريقة تجزئة عشوائية على عقد مختلفة، لمنع تسرب المعلومات أثناء عملية التحقق.
تكتسب مشغلي العقد من خلال تشغيل نموذج التحقق، ومعالجة الإعلانات، وتقديم نتائج التحقق. تأتي هذه العوائد من القيمة التي تم إنشاؤها للعملاء، خاصة في تقليل معدل الخطأ في مجالات الذكاء الاصطناعي الحرجة. لمنع السلوك المضاربي من الاستجابات العشوائية للعقد، يعاقب النظام العقد التي تبتعد باستمرار عن التوافق، من خلال لعبة الآليات الاقتصادية لضمان مشاركة مشغلي العقد بصدق في التحقق.
بشكل عام، تقدم ميرا فكرة جديدة لتحسين موثوقية الذكاء الاصطناعي. من خلال بناء شبكة تحقق من الإجماع اللامركزي على أساس نماذج الذكاء الاصطناعي المتعددة، تهدف ميرا إلى تقديم موثوقية أعلى لخدمات الذكاء الاصطناعي للعملاء، وتقليل التحيز والهلوسة في الذكاء الاصطناعي، وتلبية متطلبات الدقة العالية ومعدل الضبط الدقيق. من المتوقع أن تدفع هذه الابتكار التطور العميق لتطبيقات الذكاء الاصطناعي، وتمهد الطريق لبناء أنظمة ذكاء اصطناعي موثوقة.
حتى الآن، أقامت Mira شراكات مع العديد من إطارات الذكاء الاصطناعي المعروفة. مع إطلاق الشبكة العامة للاختبار، يمكن للمستخدمين تجربة مخرجات الذكاء الاصطناعي التي تم التحقق منها من خلال Klok (وهو تطبيق دردشة يعتمد على LLM من Mira) ولديهم فرصة لكسب نقاط Mira. وهذا يوفر منصة اختبار عملية لتحسين مصداقية الذكاء الاصطناعي في المستقبل.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 14
أعجبني
14
6
مشاركة
تعليق
0/400
EthSandwichHero
· منذ 16 س
من سيقوم بقلي شطيرة عملة لي؟
شاهد النسخة الأصليةرد0
CryptoPhoenix
· منذ 16 س
الذكاء الاصطناعي يبني الثقة، البيتكوين هو أساس الثقة الحقيقية
شاهد النسخة الأصليةرد0
TheShibaWhisperer
· منذ 16 س
من قال إن الذكاء الاصطناعي يجب أن يخبر الحقيقة دائمًا؟
شاهد النسخة الأصليةرد0
LayerHopper
· منذ 16 س
الآن أصبح الذكاء الاصطناعي أخيرًا أكثر صدقًا.
شاهد النسخة الأصليةرد0
TopEscapeArtist
· منذ 17 س
هاها، لقد وصلت إلى القاع، أليس كذلك؟ إنها أزمة الثقة مرة أخرى، تمامًا مثل تلك الفترة من مخطط الشموع، كل شيء يبدو زائفًا.
شاهد النسخة الأصليةرد0
RektRecovery
· منذ 17 س
مجرد طبقة أخرى من مسرحية الأمن... رأيت هذا قادماً من مسافة بعيدة بصراحة
إطلاق مشروع ميرا لطبقة الثقة الذكية لبناء نظام بيئي للذكاء الاصطناعي قابل للتحقق
طبقة الثقة في الذكاء الاصطناعي: حل جديد لمشكلة التحيز والوهم في الذكاء الاصطناعي
مؤخراً، جذب إصدار تجريبي عام على الإنترنت يسمى Mira انتباه الصناعة. يهدف هذا المشروع إلى بناء طبقة الثقة للذكاء الاصطناعي، بهدف معالجة المشكلات المتعلقة بالتحيز و "الهلوسة" الموجودة في أنظمة الذكاء الاصطناعي. إذن، لماذا يحتاج الذكاء الاصطناعي إلى الثقة؟ وكيف تتعامل Mira مع هذا التحدي؟
عند مناقشة الذكاء الاصطناعي، غالبًا ما يركز الناس على قدراته القوية. ومع ذلك، فإن حقيقة وجود "أوهام" أو تحيزات في الذكاء الاصطناعي غالبًا ما يتم تجاهلها. ما يسمى "أوهام" الذكاء الاصطناعي، ببساطة، يعني أن الذكاء الاصطناعي أحيانًا "يخترع" أشياء، ويقدم معلومات خاطئة بثقة. على سبيل المثال، عند سؤاله عن سبب كون القمر ورديًا، قد يقدم الذكاء الاصطناعي تفسيرًا يبدو معقولًا ولكنه خيالي تمامًا.
تتعلق هذه الظاهرة بمسار تكنولوجيا الذكاء الاصطناعي الحالي. يحقق الذكاء الاصطناعي التوليدي التماسك والموثوقية من خلال التنبؤ بالمحتوى "الأكثر احتمالاً"، لكن هذه الطريقة يصعب التحقق من صحتها. بالإضافة إلى ذلك، قد تحتوي بيانات التدريب نفسها على أخطاء أو تحيزات أو حتى محتوى مختلق، وكل ذلك يؤثر على جودة مخرجات الذكاء الاصطناعي. بعبارة أخرى، يتعلم الذكاء الاصطناعي أنماط اللغة البشرية، وليس الحقائق نفسها.
آلية توليد الاحتمالات الحالية ونموذج البيانات المدفوعة تؤدي تقريبًا بشكل لا مفر منه إلى إنتاج الذكاء الاصطناعي لـ "أوهام". على الرغم من أن هذه المشكلة قد لا تؤدي إلى عواقب وخيمة على الفور في المحتوى المعرفي العام أو المحتوى الترفيهي، إلا أن الإخراج الخاطئ للذكاء الاصطناعي في مجالات مثل الطب والقانون والطيران والمالية، التي تتطلب دقة عالية، قد يكون له تأثيرات كبيرة. لذلك، أصبحت معالجة وهم الذكاء الاصطناعي والتحيز من بين القضايا الرئيسية في عملية تطوير الذكاء الاصطناعي.
يهدف مشروع ميرا إلى حل هذه المشكلة. يحاول تقليل التحيز والأوهام وزيادة موثوقية الذكاء الاصطناعي من خلال بناء طبقة الثقة للذكاء الاصطناعي. الفكرة الأساسية لميرا هي استخدام توافق عدة نماذج ذكاء اصطناعي للتحقق من مخرجات الذكاء الاصطناعي. تستفيد شبكة التحقق هذه من آلية التوافق اللامركزية، مع دمج التعاون بين النماذج المتعددة، من خلال نموذج التحقق الجماعي لتقليل حدوث التحيز والأوهام.
فيما يتعلق بهيكل التحقق، يدعم بروتوكول ميرا تحويل المحتوى المعقد إلى تصريحات يمكن التحقق منها بشكل مستقل. يشارك مشغلو العقد في التحقق من هذه التصريحات، ولضمان نزاهة مشغلي العقد، يعتمد النظام على آلية تحفيز/عقاب اقتصادية مشفرة. تشارك نماذج الذكاء الاصطناعي المختلفة ومشغلو العقد الموزعين لضمان موثوقية نتائج التحقق.
تتضمن بنية شبكة ميرا ثلاثة جوانب رئيسية: تحويل المحتوى، والتحقق الموزع، وآلية الإجماع. أولاً، يقوم النظام بتفكيك المحتوى المرشح الذي قدمه العميل إلى بيانات قابلة للتحقق مختلفة، تُوزع هذه البيانات على العقد للتحقق منها. بعد أن تحدد العقد صحة البيانات، يتم تجميع النتائج للتوصل إلى إجماع، وأخيرًا يتم إرجاع النتائج إلى العميل. لحماية خصوصية العميل، يتم توزيع البيانات بطريقة تجزئة عشوائية على عقد مختلفة، لمنع تسرب المعلومات أثناء عملية التحقق.
تكتسب مشغلي العقد من خلال تشغيل نموذج التحقق، ومعالجة الإعلانات، وتقديم نتائج التحقق. تأتي هذه العوائد من القيمة التي تم إنشاؤها للعملاء، خاصة في تقليل معدل الخطأ في مجالات الذكاء الاصطناعي الحرجة. لمنع السلوك المضاربي من الاستجابات العشوائية للعقد، يعاقب النظام العقد التي تبتعد باستمرار عن التوافق، من خلال لعبة الآليات الاقتصادية لضمان مشاركة مشغلي العقد بصدق في التحقق.
بشكل عام، تقدم ميرا فكرة جديدة لتحسين موثوقية الذكاء الاصطناعي. من خلال بناء شبكة تحقق من الإجماع اللامركزي على أساس نماذج الذكاء الاصطناعي المتعددة، تهدف ميرا إلى تقديم موثوقية أعلى لخدمات الذكاء الاصطناعي للعملاء، وتقليل التحيز والهلوسة في الذكاء الاصطناعي، وتلبية متطلبات الدقة العالية ومعدل الضبط الدقيق. من المتوقع أن تدفع هذه الابتكار التطور العميق لتطبيقات الذكاء الاصطناعي، وتمهد الطريق لبناء أنظمة ذكاء اصطناعي موثوقة.
حتى الآن، أقامت Mira شراكات مع العديد من إطارات الذكاء الاصطناعي المعروفة. مع إطلاق الشبكة العامة للاختبار، يمكن للمستخدمين تجربة مخرجات الذكاء الاصطناعي التي تم التحقق منها من خلال Klok (وهو تطبيق دردشة يعتمد على LLM من Mira) ولديهم فرصة لكسب نقاط Mira. وهذا يوفر منصة اختبار عملية لتحسين مصداقية الذكاء الاصطناعي في المستقبل.