جن فرار می نماید: استنفورد هوش مصنوعی ChatGPT را با کمتر از 600 دلار کپی می نماید!
به گزارش خانه انگلیسی، هوش مصنوعی Alpaca استنفورد در بسیاری از وظایف مشابه ChatGPT شگفت انگیز عمل می نماید. اما بر اساس یک مدل زبان منبع باز ساخته شده است و هزینه آموزش آن کمتر از 600 دلار آمریکا است. به نظر می رسد این هوش مصنوعی های خداگونه در حال حاضر به طرز وحشتناکی مقرون به صرفه هستند و به راحتی قابل تقلید هستند.
شش ماه پیش، تنها محققان و متخصصان توسعه مدل های زبانی بزرگ از آنها سرتاب می آوردند. اما ChatGPT ناگهان بشریت را سوار موشکی کرد: این ماشین ها اکنون می توانند به گونه ای ارتباط برقرار نمایند که تقریباً از انسان قابل تشخیص نباشند. آنها قادرند متن و حتی کدهای برنامه نویسی را در چند ثانیه بنویسند آن هم اغلب با استاندارد بسیار بالا.
همانطور که راه اندازی GPT-4 نشان می دهد، آن ها با سرعتی بالا در حال توسعه هستند و می خواهند جامعه بشری را به طور اساسی متحول نمایند، مانند چند فناوری دیگر، این اتوماتیک شدن کارها ممکن است منجر به تغییرات غیرقابل پیشبینی گردد.
بسیاری از شرکت های دیگر - به ویژه گوگل، اپل، متا، بایدو و آمازون، خیلی عقب نیستند و هوش مصنوعی آنها به زودی به بازار خواهد آمد.
اگر کاربر Bing هستید، مدل های زبان در حال حاضر هم در موتور جستجوی شما هستند و به زودی در بقیه مدل ها قرار خواهند گرفت. هر زمان که بخواهید با یک شرکت تماس بگیرید، آنها در ماشین، گوشی، تلویزیون، و در انتهای خط منتظر خواهند بود. خیلی زود، آنها را در روبات ها خواهید دید.
یک نکته کوچک آرامش این است که OpenAI و بقیه این شرکت های بزرگ از پتانسیل بد این ماشین ها برای ساختن هرزنامه، اطلاعات نادرست، ایجاد بدافزار، آزار و اذیت هدفمند مطلع هستند. آنها ماه ها است که کار می نمایند تا قبل از راه اندازی این قابلیت ها به صورت دستی این خطر را کاهش دهند.
اما در خصوص مدل زبانی که می توانید خودتان با 600 دلار بسازید، چطور؟ تیمی از محققان استنفورد دقیقاً این کار را انجام داده اند، و عملکرد چشمگیر آن نشان می دهد که کل این بخش و قابلیت های عالی آن با چه سرعتی ممکن است به سرعت از کنترل خارج شوند.
یک تیم تحقیقاتی استنفورد کار خود را با مدل زبان متن باز LLaMA 7B متا آغاز کرد - کوچک ترین و مقرون به صرفه ترین مدل از چندین مدل LLaMA موجود. این مدل زبان کوچک که از قبل بر روی یک تریلیون ژتون آموزش داده شده بود، اندازه مشخصی قابلیت را داشت. اما در بیشتر وظایف به طور قابل توجهی از ChatGPT عقب بود. هزینه اصلی و در واقع مزیت رقابتی اصلی در مدل های GPT عمدتاً ناشی از زمان و نیروی انسانی بسیار زیادی است که OpenAI برای آموزش پس از آموزش گذاشته است. خواندن یک میلیارد کتاب یک چیز است، اما حوراندن تعداد زیادی پرسش و پاسخ که به این هوش مصنوعی ها می آموزد شغل واقعی آنها چیست، چیز دیگر است.
بنابراین، با راه اندازی و اجرای مدل LLaMA 7B، تیم استنفورد اساساً از GPT خواست 175 جفت دستورالعمل/خروجی نوشته شده به وسیله انسان را بگیرد و آغاز به فراوری بیشتر در همان سبک و فرمت کند. این کار به وسیله یکی از APIهای مفید OpenAI انجام شد و در مدت کوتاهی، تیم حدود 52000 مکالمه نمونه برای استفاده در مدل LLaMA داشت. هزینه فراوری این داده های آموزشی انبوه کمتر از 500 دلار آمریکا است.
سپس، آن ها از این داده ها برای تنظیم دقیق مدل LLaMA استفاده کردند - فرآیندی که در هشت رایانه پردازش ابری A100 80 گیگابایتی حدود سه ساعت طول کشید. این هزینه کمتر از 100 دلار آمریکا است.
در مرحله بعد، آنها مدل به دست آمده را که آن را Alpaca نامیدند، در برابر مدل زبانی زیربنایی ChatGPT در زمینه های مختلف از جمله نوشتن ایمیل، رسانه های اجتماعی و ابزارهای بهره وری آزمایش کردند. آلپاکا در 90 مورد از این تست ها برنده شد و GPT در 89 مورد برنده شد.
این تیم ادامه می گوید هر کسی که بخواهد یک هوش مصنوعی را تکرار کند اکنون به GPT 4.0 بسیار تواناتر و بعلاوه چندین مدل قدرتمندتر LLaMA برای استفاده به عنوان پایه دسترسی دارد و مطمئناً نیازی به توقف در 52000 سؤال نیست.
تیم استنفورد 52000 سوال مورد استفاده در این تحقیق را به همراه کد فراوری بیشتر و کدی که برای تنظیم دقیق مدل LLaMA استفاده نموده اند در Github منتشر نموده است.
بنابراین، اساساً چه چیزی مانع از ایجاد هوش مصنوعی خانگی خود در حال حاضر، با صد دلار یا بیشتر، و آموزش آن به هر نحوی که می خواهد، می گردد؟ خوب، شرایط خدمات OpenAI می گوید: شما نمی توانید … از خروجی سروی ها برای توسعه مدل هایی که با OpenAI رقابت می نمایند بهره ببرید. و متا می گوید در این مرحله فقط به محققان دانشگاهی اجازه استفاده از LLaMA را تحت مجوزهای غیرتجاری می دهد، اگرچه این موضوع بحث انگیز است، زیرا کل مدل LLaMA یک هفته پس از اعلام آن در 4chan به بیرون درز کرد!÷
گروهی دیگر می گویند که توانسته است هزینه رایانش ابری را حذف کند، کد بیشتری را در Github منتشر نموده است که می تواند روی Raspberry Pi اجرا گردد و فرآیند آموزش را در عرض پنج ساعت بر روی یک کارت گرافیک رده بالای nVidia RTX 4090 تکمیل می نماید.
آلپاکا در کمال تعجب بسیار خوب است. آموزش را می توان در 5 ساعت با یک RTX 4090 انجام داد.
حیف است که از قابلیت های فوق العاده این نرم افزار یک رژیم مستبد استفاده کند، یا در عملیات فیشینگ، یا هرزنامه نویسی، استفاده گردد.
جن از بطری خارج شده است، و به نظر می رسد که در حال حاضر تکرار کردن و آموزش مجدد آن فوق العاده آسان است.
منبع: Stanford
منبع: یک پزشک