این داستان در ابتدا در The Algorithm، خبرنامه هفتگی ما در مورد هوش مصنوعی ظاهر شد. برای دریافت داستان هایی از این قبیل در صندوق ورودی خود، در اینجا ثبت نام کنید.
هفته گذشته گوگل فاش کرد که در حال استفاده از هوش مصنوعی مولد است. در کنفرانس سالانه I/O، این شرکت برنامههای خود را برای تعبیه ابزارهای هوش مصنوعی در تقریباً همه محصولات خود، از Google Docs گرفته تا کدنویسی و جستجوی آنلاین، اعلام کرد. (داستان من را اینجا بخوانید.)
اعلامیه گوگل یک معامله بزرگ است. اکنون میلیاردها نفر به مدلهای پیشرفته و قدرتمند هوش مصنوعی دسترسی خواهند داشت تا به آنها در انجام انواع کارها، از تولید متن گرفته تا پاسخ به پرسشها و نوشتن و اشکالزدایی کد کمک کند. همانطور که سردبیر MIT Technology Review، مت هونان، در تحلیل خود از I/O می نویسد، واضح است که هوش مصنوعی اکنون محصول اصلی گوگل است.
رویکرد گوگل این است که این عملکردهای جدید را به تدریج در محصولات خود معرفی کند. اما به احتمال زیاد قبل از اینکه همه چیز به هم ریخته شود، فقط یک موضوع زمان خواهد بود. این شرکت هیچ یک از مشکلات رایج این مدل های هوش مصنوعی را حل نکرده است. هنوز هم چیزها را درست می کنند. آنها هنوز هم به راحتی قابل دستکاری هستند تا قوانین خود را زیر پا بگذارند. آنها همچنان در برابر حملات آسیب پذیر هستند. استفاده از آنها به عنوان ابزاری برای اطلاعات نادرست، کلاهبرداری و هرزنامه بسیار اندک است.
از آنجایی که این نوع ابزارهای هوش مصنوعی نسبتاً جدید هستند، هنوز در یک منطقه عمدتاً عاری از مقررات کار می کنند. اما این احساس پایداری ندارد. با از بین رفتن سرخوشی پس از ChatGPT، و تنظیم کننده ها شروع به پرسیدن سؤالات سخت در مورد این فناوری کرده اند، فراخوان ها برای مقررات در حال افزایش است.
رگولاتورهای ایالات متحده در حال تلاش برای یافتن راهی برای کنترل ابزارهای قدرتمند هوش مصنوعی هستند. این هفته، سام آلتمن، مدیر عامل OpenAI در سنای ایالات متحده شهادت خواهد داد (پس از یک شام دنج “آموزشی” با سیاستمداران در شب قبل). این جلسه پس از جلسه هفته گذشته بین معاون رئیس جمهور کامالا هریس و مدیران عامل آلفابت، مایکروسافت، OpenAI و Anthropic برگزار شد.
هریس در بیانیه ای گفت که این شرکت ها “مسئولیت اخلاقی، اخلاقی و قانونی” برای اطمینان از ایمن بودن محصولات خود دارند. سناتور چاک شومر از نیویورک، رهبر اکثریت، قانونی را برای تنظیم هوش مصنوعی پیشنهاد کرده است که می تواند شامل یک آژانس جدید برای اجرای قوانین باشد.
«همه دوست دارند دیده شوند که در حال انجام کاری هستند. جنیفر کینگ، کارشناس سیاست حفظ حریم خصوصی و داده در مؤسسه هوش مصنوعی انسان محور استنفورد، می گوید: نگرانی اجتماعی زیادی در مورد اینکه همه اینها به کجا می رود وجود دارد.
کینگ میگوید دریافت حمایت دو حزبی برای لایحه جدید هوش مصنوعی دشوار خواهد بود: «این بستگی به این دارد که تا چه حد [generative AI] به عنوان یک تهدید واقعی و در سطح اجتماعی دیده می شود. اما لینا خان، رئیس کمیسیون تجارت فدرال، «اسلحههای آتشین» را اعلام کرده است. در اوایل این ماه، خان مقالهای نوشت و خواستار تنظیم مقررات هوش مصنوعی شد تا از اشتباهات ناشی از سهلانگاری بیش از حد در بخش فناوری در گذشته جلوگیری کند. او اشاره کرد که در ایالات متحده، تنظیمکنندهها به احتمال زیاد از قوانین موجود در جعبه ابزار خود برای تنظیم هوش مصنوعی، مانند قوانین ضد تراست و شیوههای تجاری استفاده میکنند.
در همین حال، در اروپا، قانونگذاران به توافق نهایی در مورد قانون هوش مصنوعی نزدیک تر می شوند. هفته گذشته اعضای پارلمان اروپا پیشنویس مقرراتی را امضا کردند که خواستار ممنوعیت فناوری تشخیص چهره در مکانهای عمومی بود. همچنین پلیس پیش بینی، تشخیص احساسات، و خراش دادن بی رویه داده های بیومتریک آنلاین را ممنوع می کند.
اتحادیه اروپا قرار است قوانین بیشتری برای محدود کردن هوش مصنوعی مولد ایجاد کند و پارلمان از شرکتهایی که مدلهای بزرگ هوش مصنوعی ایجاد میکنند میخواهد شفافتر باشند. این اقدامات شامل برچسبگذاری محتوای تولید شده توسط هوش مصنوعی، انتشار خلاصهای از دادههای دارای حق نسخهبرداری است که برای آموزش مدل استفاده شده است، و راهاندازی اقدامات حفاظتی برای جلوگیری از تولید محتوای غیرقانونی توسط مدلها.
اما نکته اینجاست: اتحادیه اروپا هنوز با اجرای قوانین در زمینه هوش مصنوعی مولد فاصله زیادی دارد و بسیاری از عناصر پیشنهادی قانون هوش مصنوعی به نسخه نهایی راه پیدا نمی کنند. هنوز مذاکرات سختی بین پارلمان، کمیسیون اروپا و کشورهای عضو اتحادیه اروپا باقی مانده است. سال ها می گذرد تا ما شاهد اجرایی شدن قانون AI باشیم.
در حالی که تنظیمکنندهها تلاش میکنند تا عمل خود را جمع کنند، صداهای برجسته در فناوری شروع به فشار دادن به پنجره Overton کردهاند. مایکل شوارتز، اقتصاددان ارشد مایکروسافت، هفته گذشته در یک رویداد صحبت کرد و گفت که باید منتظر بمانیم تا قبل از تنظیم آن، “آسیب معناداری” از هوش مصنوعی ببینیم. او آن را با گواهینامه های رانندگی مقایسه کرد که پس از کشته شدن ده ها نفر در تصادفات معرفی شد. شوارتز گفت: «حداقل باید اندکی آسیب وارد شود تا ببینیم مشکل واقعی چیست.
این بیانیه افتضاح است. صدمات ناشی از هوش مصنوعی سالهاست که به خوبی مستند شده است. سوگیری و تبعیض، اخبار جعلی تولید شده توسط هوش مصنوعی و کلاهبرداری وجود داشته است. سایر سیستمهای هوش مصنوعی منجر به دستگیری افراد بیگناه، گرفتار شدن افراد در فقر و متهم شدن دهها هزار نفر به ناحق به کلاهبرداری شدهاند. این آسیبها احتمالاً بهطور تصاعدی رشد میکنند، زیرا هوش مصنوعی مولد به لطف اطلاعیههایی مانند گوگل، عمیقتر در جامعه ما ادغام میشود.
سوالی که باید از خود بپرسیم این است: مایلیم چقدر آسیب ببینیم؟ من می گویم به اندازه کافی دیده ایم.
یادگیری عمیق تر
رونق AI منبع باز بر اساس جزوات Big Tech ساخته شده است. چقدر طول می کشد؟
مدلهای زبان بزرگ منبع باز جدید – جایگزینهایی برای Bard Google یا ChatGPT OpenAI که محققان و توسعهدهندگان برنامهها میتوانند آنها را مطالعه، توسعه دهند و تغییر دهند – مانند آب نبات از یک پیناتا خارج میشوند. اینها نسخههای کوچکتر و ارزانتری از بهترین مدلهای هوش مصنوعی در کلاس هستند که توسط شرکتهای بزرگ ایجاد شدهاند که (تقریباً) از نظر عملکرد با آنها مطابقت دارند – و بهصورت رایگان به اشتراک گذاشته میشوند.
آینده نحوه ساخت و استفاده از هوش مصنوعی در یک دوراهی قرار دارد. از یک طرف، دسترسی بیشتر به این مدل ها به نوآوری کمک کرده است. همچنین می تواند به کشف عیوب آنها کمک کند. اما این رونق منبع باز متزلزل است. اکثر نسخههای متنباز همچنان بر روی مدلهای غولپیکر قرار دارند که توسط شرکتهای بزرگ با جیبهای عمیق عرضه میشوند. اگر OpenAI و Meta تصمیم بگیرند که مغازه خود را تعطیل کنند، یک شهر پررونق می تواند به یک پستو تبدیل شود. از ویل داگلاس بهشت بیشتر بخوانید.
بیت ها و بایت ها
آمازون در حال کار بر روی یک ربات خانه مخفی با ویژگی های ChatGPT است
اسناد فاش شده طرح هایی را برای نسخه به روز شده ربات Astro نشان می دهد که می تواند آنچه را که دیده و فهمیده است به خاطر بسپارد و به مردم امکان می دهد از آن سوال بپرسند و به آن دستوراتی بدهند. اما آمازون باید بسیاری از مشکلات را حل کند قبل از اینکه این مدلها در مقیاس بزرگ در خانههای مردم مستقر شوند. (خودی)
هوش مصنوعی پایداری مدل تبدیل متن به انیمیشن را منتشر کرده است
شرکتی که مدل متن به تصویر منبع باز Stable Diffusion را ایجاد کرده است، ابزار دیگری را راهاندازی کرده است که به افراد اجازه میدهد با استفاده از متن، تصویر و پیامهای ویدیویی انیمیشن بسازند. جدای از مشکلات حق چاپ، این ابزارها می توانند به ابزارهای قدرتمندی برای خلاقان تبدیل شوند و این واقعیت که آنها منبع باز هستند، آنها را برای افراد بیشتری در دسترس قرار می دهد. این همچنین یک توقف قبل از مرحله اجتناب ناپذیر بعدی، متن باز متن به ویدئو است. (هوش مصنوعی پایداری)
هوش مصنوعی به جنگ های فرهنگی کشیده می شود – اعتصاب نویسندگان هالیوود را ببینید
یکی از اختلافات بین انجمن نویسندگان آمریکا و استودیوهای هالیوود این است که آیا افراد باید اجازه داشته باشند از هوش مصنوعی برای نوشتن فیلمنامه و فیلمنامه تلویزیونی استفاده کنند. با پیشبینیپذیری خستهکننده، تیپ جنگ فرهنگی ایالات متحده وارد معرکه شده است. ترول های آنلاین با خوشحالی به نویسندگان قابل توجه می گویند که هوش مصنوعی جایگزین آنها خواهد شد. (مجله نیویورک)
تماشا کنید: تریلر تولید شده توسط هوش مصنوعی برای ارباب حلقه ها … اما آن را وس اندرسون
این ناز بود