من قبل لو كنا نحتاج نستخدم الذكاء الاصطناعي في تحليل البيانات أو أي نتائج أخرى بطريقة سهلة بدون بناء نماذج خاصة غالباً، كنا نروح لنماذج مثل ChatGPT أو Claude أو Gemini. ونرسل لها كل شيء دفعة وحدة داخل prompt واحد: البيانات، والشرح، والتفاصيل، والسؤال. النموذج يحاول يفهم، يحسب، يحلل، ويجاوبنا. طبعاً كنا نكرر هذا السيناريو كل مرة، بشكل يدوي، ومكلف من ناحية الجهد وtokens اللي يتم التسعير بناءً عليها. والنتيجة أحيانًا تطلع ممتازة، وأحيانًا تحتاج تعيد الصياغة أكثر من مرة. فنحاول نحسن دائمًا بالـ prompt عشان يعطينا نتائج صحيحة.
اليوم مع ظهور Model Context Protocol (MCP)، هذا التعامل تغيّر تمامًا. فبدل ما ترسل البيانات كاملة، أصبح أنه تربط النموذج مع مصدر واضح (resource) مثل transactions://user-123. هذا المصدر ممكن يكون قاعدة بيانات، API، ملف خارجي، أو أي مصدر تقدر توصله البرمجيات — والفكرة إن الذكاء ما عاد يحتاج تشحنه بالبيانات كل مرة، بل يعرف كيف يطلبها بنفسه.
وبدل ما تحمّله مهمة الحساب والتحليل الخام، تعطيه أدوات خارجية يعرف يستخدمها مثل sum_deposit أو most_common_days، وينفذها وقت الحاجة. ومع وجود الـ memory، يقدر يتذكر سياق العميل، أو ما قيل سابقًا، أو تحليلات سابقة لبناء فهم أعمق واستنتاج أدق. وبدل ما تكتب له رواية، ترسل له فقط النية: “حلل سلوك هذا العميل”، وهو يشتغل على كل شيء تلقائيًا.
خلونا نأخذ مثال: تخيل لو عندنا مؤسسة مالية، ونحتاج نحلل نشاط العميل من خلال معاملاته المالية. باستخدام MCP، الذكاء يشوف البيانات من الـ Resources، يستخدم الأدوات المناسبة، يتذكر تحليلاته السابقة لو احتاج، ويرجع لك باستنتاج واضح مثل: “العميل يودع بشكل منتظم صباح كل أربعاء، ويسحب غالبًا نهاية الأسبوع. سلوكه المالي مستقر، ونقترح عليه خطة ادخار تلقائي.”
MCP مو بس طريقة جديدة للتكامل مع الذكاء الاصطناعي، هو أسلوب جديد للتفكير: نخلي الذكاء يتصرّف وكأنه وكيل فعلي، عنده أدوات، وبيانات، وذاكرة، وهدف واضح… ويقدر يشتغل بكفاءة وواقعية أكثر
مصدر المنشور
هذا المحتوى نُشر أصلًا كمنشور على LinkedIn. يمكنك فتحه في تبويب جديد.