HomeAICloudflare تحظر الزواحف AI: ثورة في حماية المحتوى عبر الإنترنت

Cloudflare تحظر الزواحف AI: ثورة في حماية المحتوى عبر الإنترنت

neo pepe presale

من Cloudflare تأتي نقطة تحول تاريخية: يقوم عملاق البنية التحتية للإنترنت بحظر crawler AI الرئيسية لحماية المحتوى عبر الإنترنت. هذا القرار يعيد تعريف التوازن بين المبدعين والشركات التكنولوجية والمستهلكين، واعدًا بإحداث ثورة في إدارة وحماية البيانات على الويب.

مكافحة الزواحف AI: قرار Cloudflare

Cloudflare قد بدأت، منذ الأول من يوليو، هجومًا ضد الشركات الرئيسية في الذكاء الاصطناعي التي تجمع البيانات من المواقع الإلكترونية دون إذن. كما أعلنت الشركة نفسها، سيتم حظر AI crawlers افتراضيًا على جميع المواقع الجديدة التي تعتمد على Cloudflare، ما لم يمنح الملاك إذنًا صريحًا. في الماضي، كان على مديري المواقع أن يستبعدوا بنشاط bot AI من جمع بياناتهم.

هذا الانعكاس في المنطق يحمي أكثر من 20% من الويب، وهي الحصة التي يغطيها عملاء Cloudflare، ويستجيب للتقارير المتزايدة عن التباطؤ والخدمات السيئة الناجمة عن التدفقات الاستثنائية للطلبات الآلية القادمة من البوتات التابعة لأسماء كبيرة في الذكاء الاصطناعي مثل GPTBot من OpenAI وClaudeBot من Anthropic.

تأثير الزواحف AI: أرقام الظاهرة

حجم حركة المرور الناتجة عن AI crawling bots قد وصل إلى مستويات مذهلة. على سبيل المثال، GoogleBot اكتشف أن Vercel، خدمة استضافة السحابة، تتلقى أكثر من 4,5 مليار طلب شهريًا من هذه البرمجيات. على عكس الزواحف لمحركات البحث العادية، فإن bot AI تعامل الخوادم بشكل عدواني، حيث تزور نفس الصفحات عدة مرات في غضون ساعات قليلة أو تقصف المواقع بمئات الطلبات في الثانية.

النتيجة؟ مواقع أبطأ، صعوبة في الوصول للمستخدمين الحقيقيين وشعور واسع بالاستغلال الحقيقي للمحتوى بدون قواعد أو تعويضات. العديد من الناشرين والشركات، من The Associated Press إلى Condé Nast وصولاً إلى Ziff Davis، قد اشتكوا من ممارسة الجمع الجماعي وغير المصرح به من قبل شركات التكنولوجيا الكبرى للذكاء الاصطناعي.

قواعد وتقنيات جديدة لحماية المحتويات

لا تقتصر خطوة Cloudflare على حظر سطحي. فقد أعلنت الشركة عن استخدام تعلم الآلة وتحليل السلوك لاكتشاف ما يُسمى بـ “shadow scrapers”، وهي بوتات متخفية تحاول تجاوز الحواجز التقليدية. بهذه الطريقة، لن يتم اعتراض الـ crawler المعلنة فقط، بل أيضًا المحاولات الأكثر تطورًا لـ scraping.

بالإضافة إلى ذلك، سيتعين على بائعي AI الآن طلب الإذن قبل أن يتمكنوا من الوصول إلى البيانات، مع توضيح الأهداف من الاستخدام بوضوح، سواء لتدريب الخوارزميات أو لوظائف البحث البسيطة. تعيد Cloudflare بذلك إلى الناشرين إمكانية اتخاذ القرار بشأن من يمكنه التفاعل مع معلوماتهم.

احتجاجات المجموعات التحريرية الرئيسية قد ساهمت في ولادة هذه السياسة الجديدة. الأنظمة الحالية للاستبعاد، مثل robots.txt التقليدي، غالبًا ما يتم تجاهلها من قبل bot AI، التي تميل إلى “تعدين” الويب دون اتباع قواعد احترام الملكية الفكرية الرقمية.

Pay Per Crawl: نحو نموذج اقتصادي جديد للمحتوى

الثورة التي أطلقتها Cloudflare تقدم أيضًا جديدًا آخر: برنامج Pay Per Crawl. هذا النظام، الذي هو حاليًا في مرحلة البيتا الخاصة، سيمكن الناشرين من تحديد أسعار الوصول لمن يرغب في استخدام محتوياتهم لأغراض تدريب الذكاء الاصطناعي. سيتم السماح بالوصول فقط بعد الدفع، أو سيتم رفضه في حالة العكس.

من الناحية التقنية، ستلجأ Cloudflare إلى الرمز HTTP 402 “Payment Required” الذي يتم إرجاعه إلى الزواحف غير المصرح بها. حل فعال محتمل، جاهز للتنفيذ بفضل توافقه مع الأنظمة الويب الحالية.

ردود الفعل من عالم AI والعقد التنظيمية

قرار Cloudflare يؤثر بشكل مباشر على الشركات AI، التي كانت حتى الآن مترددة في دفع تراخيص أو تعويضات. Nicholas Thompson، الرئيس التنفيذي لـ The Atlantic، أشار إلى أنه حتى اليوم كانت الشركات تستطيع التصرف دون عقاب، بينما الآن سيتعين عليها التفاوض والاعتراف بملكية المحتويات. من ناحية أخرى، يحذر بعض القادة في العالم التكنولوجي، مثل Nick Clegg من Meta، من أن إدخال قيود صارمة قد يعرض النمو والابتكار في قطاع AI للخطر.

يمتد النقاش أيضًا إلى المستوى التنظيمي. وقد اعترف تقرير من مكتب حقوق الطبع والنشر بأن بعض استخدامات التقنيات التوليدية يمكن أن تكون “تحويلية”. ومع ذلك، لا يمكن اعتبار الجمع الجماعي دون موافقة استخدامًا عادلاً. وهي موقف كان له تداعيات مؤسسية كبيرة، بما في ذلك الاستبدال الفوري لمسؤولة مكتب الملكية الفكرية من قبل إدارة ترامب.

مستقبل حماية المحتوى عبر الإنترنت

مبادرة Cloudflare تعيد تشكيل التوازنات بين من ينشئ ومن يستغل المحتويات عبر الإنترنت. إمكانية حجب وتحقيق الدخل من الوصول إلى البيانات تمنح الناشرين قوة حقيقية على مكان وكيفية استخدام أعمالهم. نتيجة لذلك، سيتعين على العديد من شركات AI إعادة تنظيم استراتيجياتها وعمليات اكتساب البيانات، مما يدفع نحو مزيد من الشفافية والتعاون مع العالم التحريري.

بينما يتكيف النظام البيئي الرقمي مع هذا التغيير في النموذج، من المحتمل أن يتبع لاعبين كبار آخرين في قطاع البنية التحتية مثال Cloudflare. بهذه الطريقة يمكن أن يبدأ عصر جديد في الدفاع عن الحقوق الرقمية، حيث يتم تحفيز وحماية من ينتج القيمة. تبقى الأسئلة مفتوحة حول توقيت وطرق اعتماد نموذج Pay Per Crawl وعن التأثيرات التي ستحدثها على تطوير الذكاءات الاصطناعية.

في سياق يتغير باستمرار، يصبح مراقبة تطور استراتيجيات anti-crawler AI والمشاركة الفعالة في النقاش أمرًا أساسيًا لجميع الجهات المعنية. قد تكون الحرب ضد البوتات غير المصرح بها مجرد بداية لموسم جديد لتقدير الويب كسلعة جماعية ومستدامة.

Satoshi Voice
Satoshi Voice
تم إنتاج هذه المقالة بدعم من الذكاء الاصطناعي وتمت مراجعتها من قبل فريقنا من الصحفيين لضمان الدقة والجودة.
RELATED ARTICLES

Stay updated on all the news about cryptocurrencies and the entire world of blockchain.

- Advertisment -spot_img

LATEST