مایکروسافت مدل هوش مصنوعی Orca-Math را معرفی کرد؛ این هوش مصنوعی یک مدل زبانی کوچک (SLM) است اما از مدل‌های بسیار بزرگ‌تری مانند جمینای پرو گوگل و GPT-3.5 در حل مسائل ریاضی بهتر عمل می‌کند. البته این مدل کاملاً توسط مایکروسافت ایجاد نشده، درواقع Orca-Math برپایه مدل 7 میلیارد پارامتری شرکت Mistral ساخته شده است. پیش‌ازاین مایکروسافت از همکاری چندساله با این شرکت فرانسوی خبر داده بود.

 

4

براساس اعلام رسمی بلاگ مایکروسافت ریسرچ، Orca-Math در بنچمارک GSM8k pass@1 که مخصوص بررسی میزان توانایی در حل مسائل ریاضی است، امتیاز 86.81 درصد را کسب کرد. این رقم از امتیاز مدل‌های بزرگی مانند جمینای پرو، LLAMA-2-70 متا، GPT-3.5 و حتی از مدل‌های تخصصی ریاضی مانند MetaMath-70B و WizardMa8th-70B بیشتر است. قابل‌ذکر است که مدل پایه Mistral-7B نیز در بنچمارک GSM8k امتیاز 37.83 درصد را به‌دست آورد.

 

مدل هوش مصنوعی Orca-Math مایکروسافت

مدل Orca-Math با مجموعه داده‌ای متشکل از 200 هزار مسئله ریاضی آموزش دیده است؛ هرچند این میزان کوچک‌تر از سایر مجموعه داده‌های ریاضی است، اما این میزان داده امکان آموزش سریع‌تر و مقرون‌به‌صرفه را فراهم می‌کند. همچنین Orca-Math تحت یک فرایند یادگیری تکراری قرار داشته، بدین صورت که حل مسائل تکراری را تمرین می‌کرد و به‌طور مداوم براساس بازخورد سیگنال‌های ناظر، خود را بهبود می‌داد.

به‌نظر می‌رسد استارتاپ انتروپیک نیز از همین مجموعه داده برای آموزش مدل هوش مصنوعی Claude 3 Opus استفاده کرده است. مدل هوش مصنوعی قدرتمند انتروپیک که به‌تازگی معرفی شده، رقیبی جدی برای جمینای و ChatGPT محسوب می‌شود.

مایکروسافت مدل زبانی اصلی Orca با 13 میلیارد پارامتر را در ژوئن 2023 (خردادماه) معرفی کرد که از GPT-4 به‌عنوان معلم هوش مصنوعی خود استفاده می‌کرد. Orca 2 نیز در نسخه‌های 13 و 7 میلیارد پارامتری در نوامبر 2023 (آبان‌ماه) معرفی شد که هر دو برپایه مدل متن‌باز متا یعنی Llama 2 LLM بودند. حالا عضو جدید خانواده Orca، با 7 میلیارد پارامتر، مخصوص حل مسائل ریاضی است و می‌تواند در این زمینه کاربردهای مختلفی داشته باشد.

-