چگونه مشکلی مانند هوش مصنوعی خارج از کنترل را حل می کنید؟

این داستان در ابتدا در The Algorithm، خبرنامه هفتگی ما در مورد هوش مصنوعی ظاهر شد. برای دریافت داستان هایی از این قبیل در صندوق ورودی خود، در اینجا ثبت نام کنید.

هفته گذشته گوگل فاش کرد که در حال استفاده از هوش مصنوعی مولد است. در کنفرانس سالانه I/O، این شرکت برنامه‌های خود را برای تعبیه ابزارهای هوش مصنوعی در تقریباً همه محصولات خود، از Google Docs گرفته تا کدنویسی و جستجوی آنلاین، اعلام کرد. (داستان من را اینجا بخوانید.)

اعلامیه گوگل یک معامله بزرگ است. اکنون میلیاردها نفر به مدل‌های پیشرفته و قدرتمند هوش مصنوعی دسترسی خواهند داشت تا به آنها در انجام انواع کارها، از تولید متن گرفته تا پاسخ به پرسش‌ها و نوشتن و اشکال‌زدایی کد کمک کند. همانطور که سردبیر MIT Technology Review، مت هونان، در تحلیل خود از I/O می نویسد، واضح است که هوش مصنوعی اکنون محصول اصلی گوگل است.

رویکرد گوگل این است که این عملکردهای جدید را به تدریج در محصولات خود معرفی کند. اما به احتمال زیاد قبل از اینکه همه چیز به هم ریخته شود، فقط یک موضوع زمان خواهد بود. این شرکت هیچ یک از مشکلات رایج این مدل های هوش مصنوعی را حل نکرده است. هنوز هم چیزها را درست می کنند. آنها هنوز هم به راحتی قابل دستکاری هستند تا قوانین خود را زیر پا بگذارند. آنها همچنان در برابر حملات آسیب پذیر هستند. استفاده از آنها به عنوان ابزاری برای اطلاعات نادرست، کلاهبرداری و هرزنامه بسیار اندک است.

از آنجایی که این نوع ابزارهای هوش مصنوعی نسبتاً جدید هستند، هنوز در یک منطقه عمدتاً عاری از مقررات کار می کنند. اما این احساس پایداری ندارد. با از بین رفتن سرخوشی پس از ChatGPT، و تنظیم کننده ها شروع به پرسیدن سؤالات سخت در مورد این فناوری کرده اند، فراخوان ها برای مقررات در حال افزایش است.

رگولاتورهای ایالات متحده در حال تلاش برای یافتن راهی برای کنترل ابزارهای قدرتمند هوش مصنوعی هستند. این هفته، سام آلتمن، مدیر عامل OpenAI در سنای ایالات متحده شهادت خواهد داد (پس از یک شام دنج “آموزشی” با سیاستمداران در شب قبل). این جلسه پس از جلسه هفته گذشته بین معاون رئیس جمهور کامالا هریس و مدیران عامل آلفابت، مایکروسافت، OpenAI و Anthropic برگزار شد.

هریس در بیانیه ای گفت که این شرکت ها “مسئولیت اخلاقی، اخلاقی و قانونی” برای اطمینان از ایمن بودن محصولات خود دارند. سناتور چاک شومر از نیویورک، رهبر اکثریت، قانونی را برای تنظیم هوش مصنوعی پیشنهاد کرده است که می تواند شامل یک آژانس جدید برای اجرای قوانین باشد.

«همه دوست دارند دیده شوند که در حال انجام کاری هستند. جنیفر کینگ، کارشناس سیاست حفظ حریم خصوصی و داده در مؤسسه هوش مصنوعی انسان محور استنفورد، می گوید: نگرانی اجتماعی زیادی در مورد اینکه همه اینها به کجا می رود وجود دارد.

کینگ می‌گوید دریافت حمایت دو حزبی برای لایحه جدید هوش مصنوعی دشوار خواهد بود: «این بستگی به این دارد که تا چه حد [generative AI] به عنوان یک تهدید واقعی و در سطح اجتماعی دیده می شود. اما لینا خان، رئیس کمیسیون تجارت فدرال، «اسلحه‌های آتشین» را اعلام کرده است. در اوایل این ماه، خان مقاله‌ای نوشت و خواستار تنظیم مقررات هوش مصنوعی شد تا از اشتباهات ناشی از سهل‌انگاری بیش از حد در بخش فناوری در گذشته جلوگیری کند. او اشاره کرد که در ایالات متحده، تنظیم‌کننده‌ها به احتمال زیاد از قوانین موجود در جعبه ابزار خود برای تنظیم هوش مصنوعی، مانند قوانین ضد تراست و شیوه‌های تجاری استفاده می‌کنند.

در همین حال، در اروپا، قانونگذاران به توافق نهایی در مورد قانون هوش مصنوعی نزدیک تر می شوند. هفته گذشته اعضای پارلمان اروپا پیش‌نویس مقرراتی را امضا کردند که خواستار ممنوعیت فناوری تشخیص چهره در مکان‌های عمومی بود. همچنین پلیس پیش بینی، تشخیص احساسات، و خراش دادن بی رویه داده های بیومتریک آنلاین را ممنوع می کند.

اتحادیه اروپا قرار است قوانین بیشتری برای محدود کردن هوش مصنوعی مولد ایجاد کند و پارلمان از شرکت‌هایی که مدل‌های بزرگ هوش مصنوعی ایجاد می‌کنند می‌خواهد شفاف‌تر باشند. این اقدامات شامل برچسب‌گذاری محتوای تولید شده توسط هوش مصنوعی، انتشار خلاصه‌ای از داده‌های دارای حق نسخه‌برداری است که برای آموزش مدل استفاده شده است، و راه‌اندازی اقدامات حفاظتی برای جلوگیری از تولید محتوای غیرقانونی توسط مدل‌ها.

اما نکته اینجاست: اتحادیه اروپا هنوز با اجرای قوانین در زمینه هوش مصنوعی مولد فاصله زیادی دارد و بسیاری از عناصر پیشنهادی قانون هوش مصنوعی به نسخه نهایی راه پیدا نمی کنند. هنوز مذاکرات سختی بین پارلمان، کمیسیون اروپا و کشورهای عضو اتحادیه اروپا باقی مانده است. سال ها می گذرد تا ما شاهد اجرایی شدن قانون AI باشیم.

در حالی که تنظیم‌کننده‌ها تلاش می‌کنند تا عمل خود را جمع کنند، صداهای برجسته در فناوری شروع به فشار دادن به پنجره Overton کرده‌اند. مایکل شوارتز، اقتصاددان ارشد مایکروسافت، هفته گذشته در یک رویداد صحبت کرد و گفت که باید منتظر بمانیم تا قبل از تنظیم آن، “آسیب معناداری” از هوش مصنوعی ببینیم. او آن را با گواهینامه های رانندگی مقایسه کرد که پس از کشته شدن ده ها نفر در تصادفات معرفی شد. شوارتز گفت: «حداقل باید اندکی آسیب وارد شود تا ببینیم مشکل واقعی چیست.

این بیانیه افتضاح است. صدمات ناشی از هوش مصنوعی سالهاست که به خوبی مستند شده است. سوگیری و تبعیض، اخبار جعلی تولید شده توسط هوش مصنوعی و کلاهبرداری وجود داشته است. سایر سیستم‌های هوش مصنوعی منجر به دستگیری افراد بی‌گناه، گرفتار شدن افراد در فقر و متهم شدن ده‌ها هزار نفر به ناحق به کلاهبرداری شده‌اند. این آسیب‌ها احتمالاً به‌طور تصاعدی رشد می‌کنند، زیرا هوش مصنوعی مولد به لطف اطلاعیه‌هایی مانند گوگل، عمیق‌تر در جامعه ما ادغام می‌شود.

سوالی که باید از خود بپرسیم این است: مایلیم چقدر آسیب ببینیم؟ من می گویم به اندازه کافی دیده ایم.

یادگیری عمیق تر

رونق AI منبع باز بر اساس جزوات Big Tech ساخته شده است. چقدر طول می کشد؟

مدل‌های زبان بزرگ منبع باز جدید – جایگزین‌هایی برای Bard Google یا ChatGPT OpenAI که محققان و توسعه‌دهندگان برنامه‌ها می‌توانند آن‌ها را مطالعه، توسعه دهند و تغییر دهند – مانند آب نبات از یک پیناتا خارج می‌شوند. اینها نسخه‌های کوچک‌تر و ارزان‌تری از بهترین مدل‌های هوش مصنوعی در کلاس هستند که توسط شرکت‌های بزرگ ایجاد شده‌اند که (تقریباً) از نظر عملکرد با آنها مطابقت دارند – و به‌صورت رایگان به اشتراک گذاشته می‌شوند.

آینده نحوه ساخت و استفاده از هوش مصنوعی در یک دوراهی قرار دارد. از یک طرف، دسترسی بیشتر به این مدل ها به نوآوری کمک کرده است. همچنین می تواند به کشف عیوب آنها کمک کند. اما این رونق منبع باز متزلزل است. اکثر نسخه‌های متن‌باز همچنان بر روی مدل‌های غول‌پیکر قرار دارند که توسط شرکت‌های بزرگ با جیب‌های عمیق عرضه می‌شوند. اگر OpenAI و Meta تصمیم بگیرند که مغازه خود را تعطیل کنند، یک شهر پررونق می تواند به یک پستو تبدیل شود. از ویل داگلاس بهشت ​​بیشتر بخوانید.

بیت ها و بایت ها

آمازون در حال کار بر روی یک ربات خانه مخفی با ویژگی های ChatGPT است
اسناد فاش شده طرح هایی را برای نسخه به روز شده ربات Astro نشان می دهد که می تواند آنچه را که دیده و فهمیده است به خاطر بسپارد و به مردم امکان می دهد از آن سوال بپرسند و به آن دستوراتی بدهند. اما آمازون باید بسیاری از مشکلات را حل کند قبل از اینکه این مدل‌ها در مقیاس بزرگ در خانه‌های مردم مستقر شوند. (خودی)

هوش مصنوعی پایداری مدل تبدیل متن به انیمیشن را منتشر کرده است
شرکتی که مدل متن به تصویر منبع باز Stable Diffusion را ایجاد کرده است، ابزار دیگری را راه‌اندازی کرده است که به افراد اجازه می‌دهد با استفاده از متن، تصویر و پیام‌های ویدیویی انیمیشن بسازند. جدای از مشکلات حق چاپ، این ابزارها می توانند به ابزارهای قدرتمندی برای خلاقان تبدیل شوند و این واقعیت که آنها منبع باز هستند، آنها را برای افراد بیشتری در دسترس قرار می دهد. این همچنین یک توقف قبل از مرحله اجتناب ناپذیر بعدی، متن باز متن به ویدئو است. (هوش مصنوعی پایداری)

هوش مصنوعی به جنگ های فرهنگی کشیده می شود – اعتصاب نویسندگان هالیوود را ببینید
یکی از اختلافات بین انجمن نویسندگان آمریکا و استودیوهای هالیوود این است که آیا افراد باید اجازه داشته باشند از هوش مصنوعی برای نوشتن فیلمنامه و فیلمنامه تلویزیونی استفاده کنند. با پیش‌بینی‌پذیری خسته‌کننده، تیپ جنگ فرهنگی ایالات متحده وارد معرکه شده است. ترول های آنلاین با خوشحالی به نویسندگان قابل توجه می گویند که هوش مصنوعی جایگزین آنها خواهد شد. (مجله نیویورک)

تماشا کنید: تریلر تولید شده توسط هوش مصنوعی برای ارباب حلقه ها … اما آن را وس اندرسون
این ناز بود

Ainsley Murphy

بشارت دهنده آبجو Wannabe. نویسنده فداکار جنرال الکل نینجا. دانشجو. متخصص زامبی خالق مستقل متعصب سفر

Digital currencyبهترین مشاور کنکورخبربهترین سالن زیبایی تبریزبهترین اکستنشن مژه اصفهانdigital currency tutorialGuide to buying household appliancesdigital currency channelدانشگاهبهترین سالن زیبایی اصفهان
تماس با ما