تاریخ انتشار : یکشنبه 26 شهریور 1402 - 15:02
198 بازدید
کد خبر : 208482

چرا متا مدل هوش مصنوعی بسیار قدرتمند خود را ارائه می کند؟

چرا متا مدل هوش مصنوعی بسیار قدرتمند خود را ارائه می کند؟

  به گزارش Buy Reportaj و به نقل از vox هفته گذشته متا حرکتی را در دنیای هوش مصنوعی انجام داد. در زمانی که دیگر شرکت‌های پیشرو هوش مصنوعی مانند گوگل و OpenAI از نزدیک از سس مخفی خود محافظت می‌کنند، متا تصمیم گرفت کدی را که مدل جدید خلاقانه هوش مصنوعی زبان بزرگ خود،

 

به گزارش Buy Reportaj و به نقل از vox هفته گذشته متا حرکتی را در دنیای هوش مصنوعی انجام داد.

در زمانی که دیگر شرکت‌های پیشرو هوش مصنوعی مانند گوگل و OpenAI از نزدیک از سس مخفی خود محافظت می‌کنند، متا تصمیم گرفت کدی را که مدل جدید خلاقانه هوش مصنوعی زبان بزرگ خود، Llama 2 را قدرت می‌دهد، به صورت رایگان ارائه دهد. این بدان معناست که شرکت‌های دیگر اکنون می‌توانند از آن استفاده کنند. مدل Llama 2 متا، که برخی از فناوران می گویند از نظر قابلیت هایش با ChatGPT قابل مقایسه است، تا چت بات های سفارشی خود را بسازند.

 

Llama 2 می تواند تسلط ChatGPT را به چالش بکشد، چرا که این برنامه رکوردها را به عنوان یکی از سریع ترین برنامه های در حال رشد در تمام دوران شکست. اما مهمتر از آن، ماهیت منبع باز آن به یک بحث اخلاقی مهم در مورد اینکه چه کسی باید هوش مصنوعی را کنترل کند – و اینکه آیا می توان آن را ایمن کرد یا خیر، می افزاید.

 

از آنجایی که هوش مصنوعی پیشرفته‌تر و به طور بالقوه خطرناک‌تر می‌شود، آیا برای جامعه بهتر است که کد مخفی باشد – محدود به کارکنان تعداد کمی از شرکت‌ها – یا باید با عموم به اشتراک گذاشته شود تا گروه وسیع‌تری از مردم بتوانند آن را داشته باشند. دستی در شکل دادن به فناوری تحول آفرین؟

 

شرکت های فناوری برتر رویکردهای متفاوتی را در پیش گرفته اند

در اطلاعیه متا Llama 2، مارک زاکربرگ در اینستاگرام خود با ساتیا نادلا، مدیر عامل مایکروسافت لبخند می‌زند و شراکت این دو شرکت در انتشار را اعلام کرد. زاکربرگ همچنین این موضوع را مطرح کرد که چرا بهتر است مدل‌های پیشرو هوش مصنوعی «متن باز» باشند، به این معنی که کد زیربنایی این فناوری تا حد زیادی در دسترس همه برای استفاده قرار گیرد.

 

زاکربرگ در یک پست جداگانه در فیس بوک نوشت: «متن باز باعث نوآوری می شود زیرا توسعه دهندگان بیشتری را قادر می سازد با فناوری جدید بسازند. همچنین ایمنی و امنیت را بهبود می بخشد زیرا وقتی نرم افزار باز است، افراد بیشتری می توانند آن را برای شناسایی و رفع مشکلات احتمالی بررسی کنند.

 

این حرکت مورد استقبال بسیاری از توسعه دهندگان، محققان و دانشگاهیان هوش مصنوعی قرار گرفته است که می گویند این به آنها دسترسی بی سابقه ای برای ساخت ابزارهای جدید یا سیستم های مطالعه ای می دهد که در غیر این صورت ساخت آن بسیار گران تمام می شود. ساخت و نگهداری از مدل‌های پیشرفته زبان بزرگ، مانند مدل‌هایی که ChatGPT را تقویت می‌کنند، می‌توانند ده‌ها میلیون دلار هزینه داشته باشند.

 

نازنین رجانی، سرپرست تحقیقات در پلتفرم هوش مصنوعی منبع باز Hugging Face که در انتشار با متا همکاری داشت، گفت: «من فقط خودم را آماده می‌کنم که چه نوع پیشرفتی ممکن است اتفاق بیفتد. رجانی در توییتر پستی را در مورد ارزیابی قابلیت‌های Llama 2 نوشت و به Vox گفت: «ما قادر خواهیم بود تا مواد محرمانه بیشتری را در مورد آنچه واقعاً برای ساختن مدلی مانند GPT-4 لازم است، کشف کنیم.»

 

اما AI منبع باز با خطرات عمده ای همراه است. برخی از بزرگترین بازیگران در این زمینه، از جمله OpenAI و گوگل با حمایت مایکروسافت، میزان عمومی بودن سیستم‌های هوش مصنوعی خود را به دلیل خطرات جدی این فناوری‌ها محدود کرده‌اند.

 

برخی از فن‌آوران به طور فزاینده‌ای نگران سناریوهای فرضی روز قیامت هستند که در آن یک هوش مصنوعی می‌تواند انسان‌ها را برای ایجاد آسیب‌هایی مانند رها کردن یک ابر سلاح بیولوژیکی یا ایجاد ویرانی دیگر به روش‌هایی که نمی‌توانیم به طور کامل تصور کنیم، پیشی بگیرد. ایلیا سوتسکور، یکی از بنیانگذاران OpenAI، در ماه فوریه به The Verge گفت که شرکت او زمانی که جزئیات مدل های خود را آشکارتر در گذشته به اشتراک می گذاشت، «کاملاً اشتباه می کرد» زیرا اگر روزی هوش مصنوعی مانند انسان ها باهوش شود، به چیزی می رسد که برخی می گویند. AGI یا هوش عمومی مصنوعی، عاقلانه نیست که آن را با توده ها به اشتراک بگذاریم.

 

«اگر مانند ما معتقدید که در نقطه‌ای، هوش مصنوعی – AGI – به شدت و به‌طور باورنکردنی قدرتمند خواهد بود، پس منبع باز منطقی نیست. سوتسکور در آن زمان گفت: این ایده بدی است.

 

اگرچه ممکن است از هوش مصنوعی‌هایی که می‌توانند باعث تخریب واقعی انسان شوند فاصله داشته باشیم، قبلاً دیده‌ایم که از ابزارهای هوش مصنوعی جامعه منبع باز به روش‌های دیگری سوء استفاده شده است. به عنوان مثال، بلافاصله پس از اینکه متا اولین مدل Llama خود را برای استفاده تحقیقاتی در فوریه منتشر کرد، در صفحه پیام آنلاین همه چیز ۴Chan به بیرون درز کرد، جایی که از آن برای ایجاد ربات‌های چت استفاده شد که محتوای نفرت‌انگیز مانند توهین‌های نژادی و در برخی موارد منتشر می‌کرد. ، صحنه های خشونت گرافیکی.

 

احمد الداله، معاون هوش مصنوعی متا، در ایمیلی به Vox نوشت: «ما این نگرانی‌ها را جدی می‌گیریم و تعدادی چیز را برای حمایت از رویکرد مسئولانه برای ساخت با Llama 2 در نظر گرفته‌ایم. الدحل گفت که این اقدامات شامل «تیم قرمز کردن» یا آزمایش فشار مدل قبل از انتشار با تغذیه آن است که انتظار می‌رود «خروجی مخاطره‌آمیزی» تولید کند، مانند مواردی در مورد رفتار مجرمانه و محتوای نفرت‌انگیز. متا همچنین مدل خود را برای کاهش این نوع رفتارها تنظیم کرد و دستورالعمل های جدیدی را ارائه کرد که برخی از استفاده های غیرقانونی و مضر را ممنوع می کند.

 

متا می گوید که پس از عرضه به تنظیم دقیق مدل خود برای ایمنی ادامه خواهد داد.

 

الداله گفت: «وقتی فناوری در فضای باز منتشر و اصلاح می‌شود، ما معتقدیم که در نهایت منجر به بحث‌های شفاف‌تر، افزایش پاسخگویی به مقابله با تهدیدها و افزایش تکرار در ساخت ابزارها و فناوری‌های هوش مصنوعی مسئولانه‌تر می‌شود.»

 

به عنوان مثال، برخی از کارشناسان خاطرنشان می کنند که ما حتی قبل از اینکه هوش مصنوعی به شکل فعلی وجود داشته باشد، مشکل اطلاعات نادرست را داشتیم. آنها می گویند آنچه در این مرحله اهمیت بیشتری دارد نحوه توزیع این اطلاعات نادرست است. آرویند نارایانان، استاد علوم کامپیوتر پرینستون، به Vox گفت که “گلوگاه بازیگران بد اطلاعات نادرست تولید نمی کند، بلکه آن را توزیع می کند و مردم را متقاعد می کند.” او افزود: “هوش مصنوعی، چه منبع باز یا غیر متن باز، این مراحل را آسان تر نکرده است.”

 

برای جلوگیری از انتشار اطلاعات نادرست، شرکت‌هایی که مدل‌های هوش مصنوعی را ایجاد می‌کنند می‌توانند محدودیت‌هایی را در مورد نحوه استفاده از برنامه‌های خود اعمال کنند. به عنوان مثال، متا قوانینی دارد که کاربران را از استفاده از Llama 2 برای ترویج خشونت یا آزار و اذیت منع می کند، اما احتمالاً اجرای این قوانین دشوار خواهد بود.

 

همچنین شایان ذکر است که Llama 2 نیز کاملاً باز نیست. متا داده های آموزشی مورد استفاده برای آموزش آخرین مدل را که جزء کلیدی هر سیستم هوش مصنوعی است، منتشر نکرد. محققان می گویند که برای اندازه گیری سوگیری در سیستم های هوش مصنوعی بسیار مهم است. در نهایت، متا از شرکت‌هایی با بیش از ۷۰۰ میلیون کاربر ماهانه – بنابراین اساساً تعداد انگشت شماری از غول‌های فناوری مانند گوگل – می‌خواهد قبل از استفاده از نرم‌افزار از متا اجازه بگیرند.

 

با این حال، به طور کلی، Llama 2 منبع بازترین پروژه هوش مصنوعی است که اخیراً از یک شرکت بزرگ فناوری دیده ایم. که این سوال را مطرح می کند که شرکت های دیگر چگونه پاسخ خواهند داد.

 

بنابراین دقیقاً چه موردی برای و علیه دنیای هوش مصنوعی منبع بازتر است؟ و به نظر می رسد ما به چه سمتی حرکت کنیم، به خصوص با توجه به اعلام اخیر متا؟

منبع باز می تواند منجر به نوآوری بیشتر شود

اگر کاربر معمولی ابزارهای هوش مصنوعی مانند ChatGPT هستید، ممکن است مزایای فوری مدل‌های منبع باز AI را نبینید. اما اگر توسعه‌دهنده یا محقق هوش مصنوعی هستید، معرفی LLM‌های منبع باز مانند Llama 2 دنیایی از امکانات را به شما باز می‌کند.

آنتون تروینیکوف، یکی از بنیانگذاران و رئیس فناوری استارت آپ هوش مصنوعی Chroma که پایگاه داده هایی را ایجاد می کند که توسعه دهندگان آن را به سیستم های هوش مصنوعی متصل می کنند تا با داده ها، حقایق و ابزارهای خود سفارشی کنند، گفت: «این یک معامله بزرگ است.

 

برای شخصی مانند Troynikov، استفاده از Llama 2 می تواند به این شرکت اجازه دهد تا کنترل بیشتری بر نحوه استفاده از داده های خود به کاربران خود بدهد.

 

Troynikov که پزشکانی را مثال زد که نیازی به افشای سوابق پزشکی بیماران ندارند، گفت: “اکنون نیازی نیست که هیچ داده ای را به خارج از سیستم خود ارسال کنید، می توانید آن را ۱۰۰ درصد به صورت داخلی بر روی دستگاه های خود اجرا کنید.” به شخص ثالث “داده های شما دیگر لازم نیست برای به دست آوردن این قابلیت های خارق العاده به جایی بروند.”

 

Troynikov گفت که او شخصاً استفاده از Llama 2 را شروع کرده است و هنوز در حال آزمایش این است که چقدر با فناوری شرکتش کار می کند.

 

هنوز خیلی زود است که ببینیم دقیقاً چگونه از Llama 2 استفاده خواهد شد، اما Al-Dahle از Meta گفت که “تعدادی از امکانات را در ایجاد عوامل و دستیاران مبتنی بر چت می بیند که به بهبود بهره وری، خدمات مشتری و کارایی برای مشاغلی که به آنها کمک می کند، کمک می کند. ممکن است در غیر این صورت قادر به دسترسی و استقرار این فناوری نبوده باشد.”

 

همچنین در اینجا یک نفع شخصی برای بهبود محصولات خود متا وجود دارد. اگر متا مدل‌های هوش مصنوعی خود را در طبیعت قرار دهد، جامعه مهندسان خارجی منبع باز مدل‌های خود را بهبود می‌بخشد، که متا می‌تواند برای ساخت ابزارهای هوش مصنوعی درون‌برنامه‌ای که شرکت گفته است روی آن‌ها کار می‌کند، مانند چت ربات‌های دستیار تجاری، استفاده کند.

 

به این ترتیب، متا مجبور نیست تمام منابع خود را برای رسیدن به OpenAI و Google بگذارد، زیرا آنها در کنار قرار دادن ابزارهای مولد هوش مصنوعی در خط تولید اصلی خود هستند.

 

هوش مصنوعی منبع باز به “هوش توده ها” کمک خواهد کرد

برخی از کارشناسان برجسته فکر می‌کنند که اگر مدل‌های هوش مصنوعی منبع باز باشند، می‌توانند به طور کلی هوشمندتر و از نظر اخلاقی نقص کمتری داشته باشند.

 

با استفاده از مدل‌های منبع باز هوش مصنوعی، افراد بیشتری می‌توانند بر اساس آن‌ها کار کنند و آن‌ها را بهبود ببخشند. شرکت هوش مصنوعی منبع باز Stability AI قبلاً مدلی به نام “FreeWilly” ایجاد کرده است که بر روی Llama 2 ساخته می شود. این مدل به سرعت محبوب شد و اکنون می تواند در برخی آزمایشات از پیدایش خود Llama 2 بهتر عمل کند. این امر باعث شده است تا به صدر جدول مدل‌های AI منبع باز Hugging Face برسد.

 

«افراد خارج از متا در حال شکست دادن متا با عملکرد خودش و مدل‌های خودش هستند که در طول سال‌ها با دقت جمع‌آوری و مدیریت کرده‌اند. آنها توانستند در عرض یک هفته این کار را انجام دهند. شکست دادن هوش توده ها بسیار سخت است

 

در همین حال، جامعه هوش مصنوعی دارای سابقه قوی از دانش منبع باز است. گوگل مدل ترانسفورماتور را ساخته و به صورت عمومی به اشتراک گذاشته است، که یک شبکه عصبی است که زمینه را مانند زبان، با ردیابی روابط بین بخش‌های داده، مانند کلمات در یک جمله، درک می‌کند. این مدل در مدل‌های پیشرفته هوش مصنوعی پایه‌ای شده است و در بسیاری از برنامه‌ها از جمله در ChatGPT استفاده می‌شود («T» در GPT مخفف ترانسفورماتور است).

 

آرویند نارایانان، پروفسور پرینستون، با اشاره به خطر شکل‌گیری «تک‌فرهنگ» فناوری، گفت که مدل‌های منبع باز به محققان امکان می‌دهند توانایی‌ها و خطرات هوش مصنوعی را بهتر مطالعه کنند و تمرکز قدرت در دست چند شرکت را متوقف کنند.

 

او گفت: «تک کشت می تواند عواقب فاجعه باری داشته باشد. وقتی همان مدل، مثلاً GPT-4، در هزاران یا میلیون‌ها برنامه استفاده می‌شود، هر آسیب‌پذیری امنیتی در آن مدل، مانند جیلبریک، می‌تواند بر همه آن برنامه‌ها تأثیر بگذارد.»

 

کارشناسان خاطرنشان می کنند که از لحاظ تاریخی، هوش مصنوعی به عنوان یک زمینه شکوفا شده است، زیرا محققان شرکت، دانشگاهیان و سایر کارشناسان مایل به اشتراک گذاری یادداشت ها بوده اند.

 

رامن چاودری، یکی از بنیانگذاران Humane Intelligence، یک سازمان غیرانتفاعی که سیستم‌های هوش مصنوعی پاسخگو را توسعه می‌دهد، می‌گوید: «یکی از دلایلی که علم داده و هوش مصنوعی صنعتی عظیم است، در واقع به این دلیل است که مبتنی بر فرهنگ اشتراک‌گذاری دانش است. “من فکر می کنم برای افرادی که در جامعه علم داده نیستند واقعا سخت است که بفهمند ما چقدر به همدیگر می دهیم.”

 

علاوه بر این، برخی از دانشگاهیان هوش مصنوعی می‌گویند که مدل‌های منبع باز به محققان این امکان را می‌دهند که نه تنها نقص‌های امنیتی، بلکه نقص‌های کیفی بیشتری را در مدل‌های زبان بزرگ پیدا کنند، که ثابت شده است که سوگیری، توهم یا سایر محتوای مشکل‌ساز را تداوم می‌بخشد.

 

برخی از محققان استدلال می‌کنند در حالی که شرکت‌ها می‌توانند برخی از این سوگیری‌ها را از قبل آزمایش کنند، پیش‌بینی هر پیامد منفی تا زمانی که این مدل‌ها در طبیعت منتشر نشوند، دشوار است.

 

“من فکر می کنم باید تحقیقات بیشتری در مورد اینکه تا چه نقطه ای از آسیب پذیری ها می توانند مورد سوء استفاده قرار گیرند، انجام شود. رجانی گفت: باید حسابرسی و تجزیه و تحلیل ریسک و داشتن سند ریسک وجود داشته باشد… همه اینها فقط در صورتی انجام می شود که مدلی باز و قابل مطالعه داشته باشید.

 

اما هوش مصنوعی منبع باز نیز ممکن است به طرز وحشتناکی اشتباه کند

حتی سرسخت‌ترین حامیان مدل‌های هوش مصنوعی باز اذعان دارند که خطرات عمده‌ای وجود دارد. و دقیقاً اینکه هوش مصنوعی چگونه می‌تواند اشتباه کند، طیفی را از جعل آسان‌تر هویت افراد تا نابودی بشریت، حداقل در تئوری، هدایت می‌کند. مهم‌ترین استدلال در این سناریو این است که اگر هوش مصنوعی به نوعی هوش عمومی مصنوعی برسد، روزی می‌تواند انسان‌ها را به گونه‌ای پیشی بگیرد که ما قادر به کنترل آن نباشیم.

در یک جلسه استماع اخیر در سنا، سام آلتمن، مدیر عامل OpenAI به کنگره گفت که “با وجود تمام خطرات هوش مصنوعی، هر چه کمتر از ما واقعاً باید مراقب آنها باشیم – قابلیت های مطلق و بی نقص،” آسان تر است. برای نظارت بر تنظیم کننده ها

 

از سوی دیگر، حتی آلتمن نیز به اهمیت اجازه دادن به جامعه منبع باز برای رشد اذعان داشت. او پیشنهاد کرد که نوعی محدودیت تعیین شود تا زمانی که مدلی «آستانه‌های توانایی» مشخصی را برای انجام وظایف خاص برآورده می‌کند، مجبور به دریافت مجوز از دولت شود.

 

این موردی است که به نظر می رسد برخی از طرفداران منبع باز با آلتمن موافق هستند. اگر به نقطه‌ای برسیم که مدل‌های هوش مصنوعی به سبقت گرفتن از بشریت نزدیک می‌شوند، شاید بتوانیم ترمزهایی را در منبع باز ایجاد کنیم.

 

اما سوال چالش برانگیز در مورد هوش مصنوعی این است که در چه مرحله ای تصمیم می گیریم که آنقدر قدرتمند است که بتوان آن را بدون محدودیت رها کرد؟ و اگر جن در آن نقطه از بطری خارج شود، آیا توقف پیشرفت هوش مصنوعی غیرممکن خواهد بود؟ در حال حاضر نمی توان با قطعیت به این سؤالات پاسخ داد. اما در این بین، هوش مصنوعی منبع باز اینجاست، و در حالی که خطرات فوری واقعی و همچنین خطراتی وجود دارد که می‌توانند در جاده‌ها گلوله برف داشته باشند، مزایای روشنی برای همه ما وجود دارد که گروه وسیع‌تری از مردم به آن فکر کنند. 

برچسب ها :

ناموجود
ارسال نظر شما
مجموع نظرات : 2 در انتظار بررسی : 2 انتشار یافته : ۰
0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها