أداة: “TREC QA Tracks”: أقوى نُظم الإجابة على الأسئلة بالذكاء الاصطناعي

في أواخر التسعينيات، أطلق مؤتمر TREC (Text REtrieval Conference) مسابقة QA Tracks بهدف تحفيز البحث في أنظمة تُجيب مباشرة عن الأسئلة بدلا من عرض وثائق تحتوي على الإجابة. شملت TREC‑8 وTREC‑9 وTREC‑2001 مراحل تقييم لأنظمة الإجابات، ما مثل خطوة أساسية نحو تطوير تقنيات استرجاع المعلومات والذكاء الاصطناعي التفسيري قبل ظهور نماذج لغة كبيرة (LLMs).

ما هي TREC QA Tracks؟

هي إطار تنافسي بحثي ساهم في تطوير وتصنيف أنظمة QA مبنيّة على:

أهم الميزات:

  1. توفير بيانات تقييم معيارية:
    ملايين الوثائق وأسئلة مع تصحيحات بشرية سمحت بمقارنة مستوى الأداء منذ البداية .
  2. تحفيز تطور تقنيات استرجاع المعلومات:
    ساعدت على التطوّر من تقنيات bag-of-words نحو أنظمة أكثر تقدّما بفهم لغوي (researchgate.net).
  3. توسيع نوعية الأسئلة:
    بدأت بالأسئلة factoid—ثم أُضيفت list وdefinition وseries questions وأخيرا interactive ciQA منذ 2006 (trec.nist.gov).
  4. التقييم المتقدم:
    استُخدمت أساليب مثل nugget pyramid في تقييم السياق التفسيري منذ 2006 (trec.nist.gov).
  5. تعزيز البحوث قبل عصر LLMs:
    ساهمت في تأسيس أرضية معرفية لتحسين وفهم الأسئلة دون الاعتماد على نماذج ضخمة.

الأهمية البحثية والتطبيقات

مرجع:

Voorhees, E.M., & Tice, D.M. (2000). The TREC‑8 Question Answering Track Report. NIST. (egr.msu.edu)

رابط مباشر لتنزيل بيانات TREC QA أو الوصول إلى الأرشيف:
(trec.nist.gov)

Exit mobile version