چرا متا مدل هوش مصنوعی بسیار قدرتمند خود را ارائه می کند؟
به گزارش Buy Reportaj و به نقل از vox هفته گذشته متا حرکتی را در دنیای هوش مصنوعی انجام داد. در زمانی که دیگر شرکتهای پیشرو هوش مصنوعی مانند گوگل و OpenAI از نزدیک از سس مخفی خود محافظت میکنند، متا تصمیم گرفت کدی را که مدل جدید خلاقانه هوش مصنوعی زبان بزرگ خود،
به گزارش Buy Reportaj و به نقل از vox هفته گذشته متا حرکتی را در دنیای هوش مصنوعی انجام داد.
در زمانی که دیگر شرکتهای پیشرو هوش مصنوعی مانند گوگل و OpenAI از نزدیک از سس مخفی خود محافظت میکنند، متا تصمیم گرفت کدی را که مدل جدید خلاقانه هوش مصنوعی زبان بزرگ خود، Llama 2 را قدرت میدهد، به صورت رایگان ارائه دهد. این بدان معناست که شرکتهای دیگر اکنون میتوانند از آن استفاده کنند. مدل Llama 2 متا، که برخی از فناوران می گویند از نظر قابلیت هایش با ChatGPT قابل مقایسه است، تا چت بات های سفارشی خود را بسازند.
Llama 2 می تواند تسلط ChatGPT را به چالش بکشد، چرا که این برنامه رکوردها را به عنوان یکی از سریع ترین برنامه های در حال رشد در تمام دوران شکست. اما مهمتر از آن، ماهیت منبع باز آن به یک بحث اخلاقی مهم در مورد اینکه چه کسی باید هوش مصنوعی را کنترل کند – و اینکه آیا می توان آن را ایمن کرد یا خیر، می افزاید.
از آنجایی که هوش مصنوعی پیشرفتهتر و به طور بالقوه خطرناکتر میشود، آیا برای جامعه بهتر است که کد مخفی باشد – محدود به کارکنان تعداد کمی از شرکتها – یا باید با عموم به اشتراک گذاشته شود تا گروه وسیعتری از مردم بتوانند آن را داشته باشند. دستی در شکل دادن به فناوری تحول آفرین؟
شرکت های فناوری برتر رویکردهای متفاوتی را در پیش گرفته اند
در اطلاعیه متا Llama 2، مارک زاکربرگ در اینستاگرام خود با ساتیا نادلا، مدیر عامل مایکروسافت لبخند میزند و شراکت این دو شرکت در انتشار را اعلام کرد. زاکربرگ همچنین این موضوع را مطرح کرد که چرا بهتر است مدلهای پیشرو هوش مصنوعی «متن باز» باشند، به این معنی که کد زیربنایی این فناوری تا حد زیادی در دسترس همه برای استفاده قرار گیرد.
زاکربرگ در یک پست جداگانه در فیس بوک نوشت: «متن باز باعث نوآوری می شود زیرا توسعه دهندگان بیشتری را قادر می سازد با فناوری جدید بسازند. همچنین ایمنی و امنیت را بهبود می بخشد زیرا وقتی نرم افزار باز است، افراد بیشتری می توانند آن را برای شناسایی و رفع مشکلات احتمالی بررسی کنند.
این حرکت مورد استقبال بسیاری از توسعه دهندگان، محققان و دانشگاهیان هوش مصنوعی قرار گرفته است که می گویند این به آنها دسترسی بی سابقه ای برای ساخت ابزارهای جدید یا سیستم های مطالعه ای می دهد که در غیر این صورت ساخت آن بسیار گران تمام می شود. ساخت و نگهداری از مدلهای پیشرفته زبان بزرگ، مانند مدلهایی که ChatGPT را تقویت میکنند، میتوانند دهها میلیون دلار هزینه داشته باشند.
نازنین رجانی، سرپرست تحقیقات در پلتفرم هوش مصنوعی منبع باز Hugging Face که در انتشار با متا همکاری داشت، گفت: «من فقط خودم را آماده میکنم که چه نوع پیشرفتی ممکن است اتفاق بیفتد. رجانی در توییتر پستی را در مورد ارزیابی قابلیتهای Llama 2 نوشت و به Vox گفت: «ما قادر خواهیم بود تا مواد محرمانه بیشتری را در مورد آنچه واقعاً برای ساختن مدلی مانند GPT-4 لازم است، کشف کنیم.»
اما AI منبع باز با خطرات عمده ای همراه است. برخی از بزرگترین بازیگران در این زمینه، از جمله OpenAI و گوگل با حمایت مایکروسافت، میزان عمومی بودن سیستمهای هوش مصنوعی خود را به دلیل خطرات جدی این فناوریها محدود کردهاند.
برخی از فنآوران به طور فزایندهای نگران سناریوهای فرضی روز قیامت هستند که در آن یک هوش مصنوعی میتواند انسانها را برای ایجاد آسیبهایی مانند رها کردن یک ابر سلاح بیولوژیکی یا ایجاد ویرانی دیگر به روشهایی که نمیتوانیم به طور کامل تصور کنیم، پیشی بگیرد. ایلیا سوتسکور، یکی از بنیانگذاران OpenAI، در ماه فوریه به The Verge گفت که شرکت او زمانی که جزئیات مدل های خود را آشکارتر در گذشته به اشتراک می گذاشت، «کاملاً اشتباه می کرد» زیرا اگر روزی هوش مصنوعی مانند انسان ها باهوش شود، به چیزی می رسد که برخی می گویند. AGI یا هوش عمومی مصنوعی، عاقلانه نیست که آن را با توده ها به اشتراک بگذاریم.
«اگر مانند ما معتقدید که در نقطهای، هوش مصنوعی – AGI – به شدت و بهطور باورنکردنی قدرتمند خواهد بود، پس منبع باز منطقی نیست. سوتسکور در آن زمان گفت: این ایده بدی است.
اگرچه ممکن است از هوش مصنوعیهایی که میتوانند باعث تخریب واقعی انسان شوند فاصله داشته باشیم، قبلاً دیدهایم که از ابزارهای هوش مصنوعی جامعه منبع باز به روشهای دیگری سوء استفاده شده است. به عنوان مثال، بلافاصله پس از اینکه متا اولین مدل Llama خود را برای استفاده تحقیقاتی در فوریه منتشر کرد، در صفحه پیام آنلاین همه چیز ۴Chan به بیرون درز کرد، جایی که از آن برای ایجاد رباتهای چت استفاده شد که محتوای نفرتانگیز مانند توهینهای نژادی و در برخی موارد منتشر میکرد. ، صحنه های خشونت گرافیکی.
احمد الداله، معاون هوش مصنوعی متا، در ایمیلی به Vox نوشت: «ما این نگرانیها را جدی میگیریم و تعدادی چیز را برای حمایت از رویکرد مسئولانه برای ساخت با Llama 2 در نظر گرفتهایم. الدحل گفت که این اقدامات شامل «تیم قرمز کردن» یا آزمایش فشار مدل قبل از انتشار با تغذیه آن است که انتظار میرود «خروجی مخاطرهآمیزی» تولید کند، مانند مواردی در مورد رفتار مجرمانه و محتوای نفرتانگیز. متا همچنین مدل خود را برای کاهش این نوع رفتارها تنظیم کرد و دستورالعمل های جدیدی را ارائه کرد که برخی از استفاده های غیرقانونی و مضر را ممنوع می کند.
متا می گوید که پس از عرضه به تنظیم دقیق مدل خود برای ایمنی ادامه خواهد داد.
الداله گفت: «وقتی فناوری در فضای باز منتشر و اصلاح میشود، ما معتقدیم که در نهایت منجر به بحثهای شفافتر، افزایش پاسخگویی به مقابله با تهدیدها و افزایش تکرار در ساخت ابزارها و فناوریهای هوش مصنوعی مسئولانهتر میشود.»
به عنوان مثال، برخی از کارشناسان خاطرنشان می کنند که ما حتی قبل از اینکه هوش مصنوعی به شکل فعلی وجود داشته باشد، مشکل اطلاعات نادرست را داشتیم. آنها می گویند آنچه در این مرحله اهمیت بیشتری دارد نحوه توزیع این اطلاعات نادرست است. آرویند نارایانان، استاد علوم کامپیوتر پرینستون، به Vox گفت که “گلوگاه بازیگران بد اطلاعات نادرست تولید نمی کند، بلکه آن را توزیع می کند و مردم را متقاعد می کند.” او افزود: “هوش مصنوعی، چه منبع باز یا غیر متن باز، این مراحل را آسان تر نکرده است.”
برای جلوگیری از انتشار اطلاعات نادرست، شرکتهایی که مدلهای هوش مصنوعی را ایجاد میکنند میتوانند محدودیتهایی را در مورد نحوه استفاده از برنامههای خود اعمال کنند. به عنوان مثال، متا قوانینی دارد که کاربران را از استفاده از Llama 2 برای ترویج خشونت یا آزار و اذیت منع می کند، اما احتمالاً اجرای این قوانین دشوار خواهد بود.
همچنین شایان ذکر است که Llama 2 نیز کاملاً باز نیست. متا داده های آموزشی مورد استفاده برای آموزش آخرین مدل را که جزء کلیدی هر سیستم هوش مصنوعی است، منتشر نکرد. محققان می گویند که برای اندازه گیری سوگیری در سیستم های هوش مصنوعی بسیار مهم است. در نهایت، متا از شرکتهایی با بیش از ۷۰۰ میلیون کاربر ماهانه – بنابراین اساساً تعداد انگشت شماری از غولهای فناوری مانند گوگل – میخواهد قبل از استفاده از نرمافزار از متا اجازه بگیرند.
با این حال، به طور کلی، Llama 2 منبع بازترین پروژه هوش مصنوعی است که اخیراً از یک شرکت بزرگ فناوری دیده ایم. که این سوال را مطرح می کند که شرکت های دیگر چگونه پاسخ خواهند داد.
بنابراین دقیقاً چه موردی برای و علیه دنیای هوش مصنوعی منبع بازتر است؟ و به نظر می رسد ما به چه سمتی حرکت کنیم، به خصوص با توجه به اعلام اخیر متا؟
منبع باز می تواند منجر به نوآوری بیشتر شود
اگر کاربر معمولی ابزارهای هوش مصنوعی مانند ChatGPT هستید، ممکن است مزایای فوری مدلهای منبع باز AI را نبینید. اما اگر توسعهدهنده یا محقق هوش مصنوعی هستید، معرفی LLMهای منبع باز مانند Llama 2 دنیایی از امکانات را به شما باز میکند.
آنتون تروینیکوف، یکی از بنیانگذاران و رئیس فناوری استارت آپ هوش مصنوعی Chroma که پایگاه داده هایی را ایجاد می کند که توسعه دهندگان آن را به سیستم های هوش مصنوعی متصل می کنند تا با داده ها، حقایق و ابزارهای خود سفارشی کنند، گفت: «این یک معامله بزرگ است.
برای شخصی مانند Troynikov، استفاده از Llama 2 می تواند به این شرکت اجازه دهد تا کنترل بیشتری بر نحوه استفاده از داده های خود به کاربران خود بدهد.
Troynikov که پزشکانی را مثال زد که نیازی به افشای سوابق پزشکی بیماران ندارند، گفت: “اکنون نیازی نیست که هیچ داده ای را به خارج از سیستم خود ارسال کنید، می توانید آن را ۱۰۰ درصد به صورت داخلی بر روی دستگاه های خود اجرا کنید.” به شخص ثالث “داده های شما دیگر لازم نیست برای به دست آوردن این قابلیت های خارق العاده به جایی بروند.”
Troynikov گفت که او شخصاً استفاده از Llama 2 را شروع کرده است و هنوز در حال آزمایش این است که چقدر با فناوری شرکتش کار می کند.
هنوز خیلی زود است که ببینیم دقیقاً چگونه از Llama 2 استفاده خواهد شد، اما Al-Dahle از Meta گفت که “تعدادی از امکانات را در ایجاد عوامل و دستیاران مبتنی بر چت می بیند که به بهبود بهره وری، خدمات مشتری و کارایی برای مشاغلی که به آنها کمک می کند، کمک می کند. ممکن است در غیر این صورت قادر به دسترسی و استقرار این فناوری نبوده باشد.”
همچنین در اینجا یک نفع شخصی برای بهبود محصولات خود متا وجود دارد. اگر متا مدلهای هوش مصنوعی خود را در طبیعت قرار دهد، جامعه مهندسان خارجی منبع باز مدلهای خود را بهبود میبخشد، که متا میتواند برای ساخت ابزارهای هوش مصنوعی درونبرنامهای که شرکت گفته است روی آنها کار میکند، مانند چت رباتهای دستیار تجاری، استفاده کند.
به این ترتیب، متا مجبور نیست تمام منابع خود را برای رسیدن به OpenAI و Google بگذارد، زیرا آنها در کنار قرار دادن ابزارهای مولد هوش مصنوعی در خط تولید اصلی خود هستند.
هوش مصنوعی منبع باز به “هوش توده ها” کمک خواهد کرد
برخی از کارشناسان برجسته فکر میکنند که اگر مدلهای هوش مصنوعی منبع باز باشند، میتوانند به طور کلی هوشمندتر و از نظر اخلاقی نقص کمتری داشته باشند.
با استفاده از مدلهای منبع باز هوش مصنوعی، افراد بیشتری میتوانند بر اساس آنها کار کنند و آنها را بهبود ببخشند. شرکت هوش مصنوعی منبع باز Stability AI قبلاً مدلی به نام “FreeWilly” ایجاد کرده است که بر روی Llama 2 ساخته می شود. این مدل به سرعت محبوب شد و اکنون می تواند در برخی آزمایشات از پیدایش خود Llama 2 بهتر عمل کند. این امر باعث شده است تا به صدر جدول مدلهای AI منبع باز Hugging Face برسد.
«افراد خارج از متا در حال شکست دادن متا با عملکرد خودش و مدلهای خودش هستند که در طول سالها با دقت جمعآوری و مدیریت کردهاند. آنها توانستند در عرض یک هفته این کار را انجام دهند. شکست دادن هوش توده ها بسیار سخت است
در همین حال، جامعه هوش مصنوعی دارای سابقه قوی از دانش منبع باز است. گوگل مدل ترانسفورماتور را ساخته و به صورت عمومی به اشتراک گذاشته است، که یک شبکه عصبی است که زمینه را مانند زبان، با ردیابی روابط بین بخشهای داده، مانند کلمات در یک جمله، درک میکند. این مدل در مدلهای پیشرفته هوش مصنوعی پایهای شده است و در بسیاری از برنامهها از جمله در ChatGPT استفاده میشود («T» در GPT مخفف ترانسفورماتور است).
آرویند نارایانان، پروفسور پرینستون، با اشاره به خطر شکلگیری «تکفرهنگ» فناوری، گفت که مدلهای منبع باز به محققان امکان میدهند تواناییها و خطرات هوش مصنوعی را بهتر مطالعه کنند و تمرکز قدرت در دست چند شرکت را متوقف کنند.
او گفت: «تک کشت می تواند عواقب فاجعه باری داشته باشد. وقتی همان مدل، مثلاً GPT-4، در هزاران یا میلیونها برنامه استفاده میشود، هر آسیبپذیری امنیتی در آن مدل، مانند جیلبریک، میتواند بر همه آن برنامهها تأثیر بگذارد.»
کارشناسان خاطرنشان می کنند که از لحاظ تاریخی، هوش مصنوعی به عنوان یک زمینه شکوفا شده است، زیرا محققان شرکت، دانشگاهیان و سایر کارشناسان مایل به اشتراک گذاری یادداشت ها بوده اند.
رامن چاودری، یکی از بنیانگذاران Humane Intelligence، یک سازمان غیرانتفاعی که سیستمهای هوش مصنوعی پاسخگو را توسعه میدهد، میگوید: «یکی از دلایلی که علم داده و هوش مصنوعی صنعتی عظیم است، در واقع به این دلیل است که مبتنی بر فرهنگ اشتراکگذاری دانش است. “من فکر می کنم برای افرادی که در جامعه علم داده نیستند واقعا سخت است که بفهمند ما چقدر به همدیگر می دهیم.”
علاوه بر این، برخی از دانشگاهیان هوش مصنوعی میگویند که مدلهای منبع باز به محققان این امکان را میدهند که نه تنها نقصهای امنیتی، بلکه نقصهای کیفی بیشتری را در مدلهای زبان بزرگ پیدا کنند، که ثابت شده است که سوگیری، توهم یا سایر محتوای مشکلساز را تداوم میبخشد.
برخی از محققان استدلال میکنند در حالی که شرکتها میتوانند برخی از این سوگیریها را از قبل آزمایش کنند، پیشبینی هر پیامد منفی تا زمانی که این مدلها در طبیعت منتشر نشوند، دشوار است.
“من فکر می کنم باید تحقیقات بیشتری در مورد اینکه تا چه نقطه ای از آسیب پذیری ها می توانند مورد سوء استفاده قرار گیرند، انجام شود. رجانی گفت: باید حسابرسی و تجزیه و تحلیل ریسک و داشتن سند ریسک وجود داشته باشد… همه اینها فقط در صورتی انجام می شود که مدلی باز و قابل مطالعه داشته باشید.
اما هوش مصنوعی منبع باز نیز ممکن است به طرز وحشتناکی اشتباه کند
حتی سرسختترین حامیان مدلهای هوش مصنوعی باز اذعان دارند که خطرات عمدهای وجود دارد. و دقیقاً اینکه هوش مصنوعی چگونه میتواند اشتباه کند، طیفی را از جعل آسانتر هویت افراد تا نابودی بشریت، حداقل در تئوری، هدایت میکند. مهمترین استدلال در این سناریو این است که اگر هوش مصنوعی به نوعی هوش عمومی مصنوعی برسد، روزی میتواند انسانها را به گونهای پیشی بگیرد که ما قادر به کنترل آن نباشیم.
در یک جلسه استماع اخیر در سنا، سام آلتمن، مدیر عامل OpenAI به کنگره گفت که “با وجود تمام خطرات هوش مصنوعی، هر چه کمتر از ما واقعاً باید مراقب آنها باشیم – قابلیت های مطلق و بی نقص،” آسان تر است. برای نظارت بر تنظیم کننده ها
از سوی دیگر، حتی آلتمن نیز به اهمیت اجازه دادن به جامعه منبع باز برای رشد اذعان داشت. او پیشنهاد کرد که نوعی محدودیت تعیین شود تا زمانی که مدلی «آستانههای توانایی» مشخصی را برای انجام وظایف خاص برآورده میکند، مجبور به دریافت مجوز از دولت شود.
این موردی است که به نظر می رسد برخی از طرفداران منبع باز با آلتمن موافق هستند. اگر به نقطهای برسیم که مدلهای هوش مصنوعی به سبقت گرفتن از بشریت نزدیک میشوند، شاید بتوانیم ترمزهایی را در منبع باز ایجاد کنیم.
اما سوال چالش برانگیز در مورد هوش مصنوعی این است که در چه مرحله ای تصمیم می گیریم که آنقدر قدرتمند است که بتوان آن را بدون محدودیت رها کرد؟ و اگر جن در آن نقطه از بطری خارج شود، آیا توقف پیشرفت هوش مصنوعی غیرممکن خواهد بود؟ در حال حاضر نمی توان با قطعیت به این سؤالات پاسخ داد. اما در این بین، هوش مصنوعی منبع باز اینجاست، و در حالی که خطرات فوری واقعی و همچنین خطراتی وجود دارد که میتوانند در جادهها گلوله برف داشته باشند، مزایای روشنی برای همه ما وجود دارد که گروه وسیعتری از مردم به آن فکر کنند.
برچسب ها :
ناموجود- نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
- نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
- نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰