سيكون Copilot ، أداة الترميز التي تعمل بالنيابة عن Github ، مجانية للطلاب

سيكون Copilot ، أداة الترميز التي تعمل بالنيابة عن Github ، مجانية للطلاب


في يونيو الماضي ، أطلقت GitHub و Openai المملوكة لشركة Microsoft Copilot ، وهي خدمة تقدم اقتراحات للخطوط الكاملة من الكود داخل بيئات التطوير مثل Microsoft Visual Studio. متاح كملحق قابل للتنزيل ، يتم تشغيل Copilot بواسطة نموذج AI يسمى Codex يتم تدريبه على مليارات خطوط التعليمات البرمجية العامة لاقتراح خطوط إضافية من التعليمات البرمجية والوظائف بالنظر إلى سياق الكود الحالي. يمكن لـ CoPilot أيضًا أن يبرز نهجًا أو حلًا استجابةً لوصفًا لما يريد المطور إنجازه (على سبيل المثال ، Say Hello World) ، والاعتماد على قاعدة المعرفة والسياق الحالي.

بينما كان Copilot متاحًا مسبقًا في المعاينة الفنية أعلنت شركة Microsoft في Build 2022. ستصبح متاحة بشكل عام بدءًا من هذا الصيف ، كما أعلنت Microsoft في Build 2022. وستتوفر Copilot أيضًا مجانًا للطلاب بالإضافة إلى المساهمين المفتوحين المصدرين. في النقطة الأخيرة ، قال Github إنها ستشارك أكثر في وقت لاحق.

لن تتغير تجربة Copilot مع توفر عام. كما كان من قبل ، سيتمكن المطورون من الدوران من خلال اقتراحات Python و JavaScript و TypeScript و Ruby و GO وعشرات لغات البرمجة الأخرى وقبولها أو رفضها أو تحريرها يدويًا. سوف يتكيف Copilot مع تحريرات المطورين ، مطابقة أنماط ترميز معينة مع ملء الملء التلقائي أو أنماط التعليمات البرمجية المتكررة والتوصية باختبارات الوحدة التي تتطابق مع رمز التنفيذ. ، أو في السحابة على مساحات Github. الموصوفة على أنها مشروع بحثي ، والهدف من ذلك هو مساعدة المطورين المبتدئين أو أولئك الذين يعملون مع قاعدة كود غير مألوفة. هذا يحسن تجربة المطور ، أخبر Ryan J. Salva ، نائب الرئيس للمنتج في Github ، TechCrunch في مقابلة عبر البريد الإلكتروني. كجزء من مختبرات Copilot ، قمنا بتشغيل 'شرح هذا الرمز' و 'ترجمة هذا الرمز'. هذا العمل يناسب فئة من القدرات التجريبية التي نختبرها تمنحك نظرة خاطفة على الاحتمالات وتتيح لنا استكشاف حالات الاستخدام. ربما مع 'شرح هذا الرمز' ، يزن المطور قاعدة كود غير مألوفة ويريد فهم ما يحدث بسرعة. تتيح لك هذه الميزة تسليط الضوء على كتلة من التعليمات البرمجية واطلب من Copilot شرحها بلغة واضحة. مرة أخرى ، تهدف Copilot Labs إلى أن تكون تجريبية بطبيعتها ، لذلك قد تنكسر الأمور. قد تتقدم أو لا تتقدم تجارب Labs إلى ميزات دائمة لـ Copilot. اعتمادات الصورة: Copilot

نظرًا للطبيعة المعقدة لنماذج الذكاء الاصطناعى ، يظل Copilot نظامًا غير كامل. يحذر Github من أنه يمكن أن ينتج أنماط ترميز غير آمنة ، وخلل ومراجع إلى واجهات برمجة التطبيقات التي عفا عليها الزمن ، أو التعبيرات التي تعكس الكود الأقل من الكمال في بيانات التدريب الخاصة بها. يقترح الكود Copilot أنه قد لا يجمع دائمًا أو يعمل أو حتى منطقيًا لأنه لا يختبر الاقتراحات فعليًا. علاوة على ذلك ، في حالات نادرة ، يمكن أن تشمل اقتراحات CoPilot بيانات شخصية مثل الأسماء ورسائل البريد الإلكتروني حرفيًا من مجموعة التدريب الخاصة بها - والأسوأ من ذلك ، نصًا متحيزًا أو تمييزًا أو مسيئًا أو مسيئًا. المرشحات لحظر رسائل البريد الإلكتروني عند عرضها في التنسيقات القياسية ، والكلمات الهجومية ، وأنها بصدد إنشاء مرشح للمساعدة في اكتشاف وقمع الكود المتكرر من المستودعات العامة. بينما نعمل بجد لجعل Copilot أفضل ، يجب أن يتم اختبار الرمز الذي اقترحه Copilot بعناية ومراجعته وفحصه ، مثل أي رمز آخر ، يقرأ إخلاء المسئولية على موقع Copilot. إطلاق في المعاينة التقنية العام الماضي ، من غير الواضح كم. قدرات th

اخلاء مسؤولية! هذا المقال لا يعبر بالضرورة عن رأي جامعة الرازي