انقلاب هوش مصنوعی: سم آلتمن در تد و چشمانداز آیندهای گریزناپذیر
چکیده
سم آلتمن، مدیرعامل OpenAI، در سخنرانی خود در TED2025، به بررسی عمیق و روشنگرانهای از آخرین پیشرفتهای هوش مصنوعی، تأثیر آن بر صنایع مختلف، بهویژه اقتصاد خلاق، چالشهای ایمنی و اخلاقی، و چشمانداز بلندمدت جامعهای با هوش مصنوعی قدرتمند پرداخت. وی ضمن معرفی قابلیتهای خیرهکننده مدلهایی چون Sora و GPT-4o و رشد بیسابقه ChatGPT، بر لزوم ایجاد مدلهای اقتصادی جدید برای خلاقیت، استراتژی OpenAI در قبال مدلهای متنباز، و اهمیت توسعه هوش مصنوعی برای پیشرفت علمی و مهندسی نرمافزار تأکید کرد. آلتمن همچنین با صراحت به نگرانیها در مورد سوءاستفاده از هوش مصنوعی و خطرات هوش عاملمحور (Agentic AI) پرداخت و رویکرد OpenAI را در قبال ایمنی و حکمرانی تکراری توضیح داد. در نهایت، او با دیدگاهی خوشبینانه و در عین حال واقعبینانه، آیندهای را ترسیم کرد که در آن هوش مصنوعی به عنوان یک ابزار متحولکننده، زندگی بشر را به سمت فراوانی مادی و تواناییهای فردی بینظیر سوق خواهد داد. این مقاله با تکیه بر سخنان آلتمن، جنبههای مختلف این انقلاب فناورانه را از دیدگاه یکی از پیشروان اصلی آن بررسی میکند.
مقدمه
در دنیایی که هر روز با سرعت سرسامآوری در حال تغییر و تحول است، هوش مصنوعی (AI) به عنوان یکی از قدرتمندترین نیروهای محرکه این دگرگونی، در کانون توجه قرار گرفته است. در قلب این انقلاب، شرکتهایی مانند OpenAI و رهبران فکری چون سم آلتمن ایستادهاند که در حال شکلدهی به آیندهای هستند که تا چندی پیش تنها در قلمرو داستانهای علمی-تخیلی جای داشت. گفتگوی سم آلتمن در کنفرانس TED2025، فرصتی بینظیر برای درک عمیقتر این چشمانداز، پیشرفتهای اخیر و چالشهای پیشرو فراهم آورد. این گفتگو نه تنها به نمایش قابلیتهای خیرهکننده مدلهای جدید میپردازد، بلکه به نگرانیهای عمیق اجتماعی، اقتصادی و اخلاقی ناشی از ظهور هوش مصنوعی قدرتمند نیز پاسخ میدهد.
در این مقاله، ما به واکاوی نکات کلیدی مطرح شده توسط سم آلتمن خواهیم پرداخت؛ از نوآوریهای محصولی که “دیوانهکننده” و “عجیب” توصیف شدهاند تا دیدگاههای او درباره اقتصاد خلاق، رقابت با مدلهای متنباز، کاربردهای هوش مصنوعی در علم و مهندسی، و مهمتر از همه، چگونگی تضمین ایمنی و مسئولیتپذیری در مواجهه با فناوری که به سرعت فراتر از درک فعلی ما پیش میرود. آلتمن در این گفتگو تلاش میکند تا تعادلی میان هیجان ناشی از پتانسیلهای بینهایت هوش مصنوعی و ضرورت رویکرد محتاطانه و متفکرانه در قبال خطرات احتمالی آن برقرار کند، و به مخاطبان خود این پیام را برساند که این تغییر نه تنها اجتنابناپذیر است، بلکه میتواند به نفع کل بشریت باشد، مشروط بر اینکه با خرد و مشارکت جمعی هدایت شود.
نوآوریهای اخیر و قابلیتهای مدلهای هوش مصنوعی
سخنرانی سم آلتمن در TED2025 با نمایش قابلیتهای شگفتانگیز مدلهای هوش مصنوعی اخیر OpenAI آغاز شد، که نشاندهنده جهشهای کوانتومی در تواناییهای این سیستمهاست.
پیشرفتهای خیرهکننده در تولید محتوا
یکی از مثالهای برجسته، مدل Sora بود که قابلیت تولید تصویر و ویدئو را دارد. مجری برنامه با به اشتراک گذاشتن ویدیویی که از Sora خواسته بود تا “آنچه در هنگام به اشتراکگذاری مکاشفات تکاندهنده در TED به نظر میرسد” را تصور کند، حضار را تحت تأثیر قرار داد. نتیجه، یک ویدئوی قابل قبول بود که آلتمن به آن نمره B+ داد، به ویژه با توجه به جزئیاتی مانند پنج انگشت بر روی دستها و شباهت به لباس مجری. این مثال به خوبی نشان میدهد که Sora فراتر از یک ابزار ساده تولید تصویر است؛ “مدل جدید تولید تصویر بخشی از GPT-4o است، بنابراین تمام هوش در آن وجود دارد”. این ارتباط عمیق با “هوش هستهای” مدل کلی GPT-4o، به Sora امکان میدهد کارهای خلاقانهتر و پیچیدهتری انجام دهد که فراتر از تولید صرف تصاویر هستند.
مجری همچنین به توانایی مدل در خلق دیاگرامهای مفهومی اشاره کرد. او از Sora خواست تا دیاگرامی را برای نشان دادن تفاوت بین هوش و آگاهی طراحی کند و نتیجه را “ساده اما باورنکردنی” توصیف کرد. این توانایی در پیوند دادن مفاهیم انتزاعی به نمایشهای بصری، دلالت بر سطح بالاتری از درک و تولید محتوا دارد که صرفاً به تقلید الگوهای موجود در دادههای آموزشی محدود نمیشود.
علاوه بر این، آلتمن به طور کلی به کیفیت نگارش مدلهای جدید اشاره کرد و گفت که این کیفیت “واقعاً به سطح جدیدی میرسد”. این پیشرفت نه تنها در قابلیتهای GPT-4o بلکه در جزئیات دیگر نیز قابل مشاهده است.
حافظه و تعامل شخصیسازیشده
یکی از هیجانانگیزترین ویژگیهای جدیدی که آلتمن به آن اشاره کرد، قابلیت بهبود یافته “حافظه” (Memory) در ChatGPT است. این ویژگی به مدل اجازه میدهد تا “در طول عمر شما، شما را بشناسد”. مجری با مثال شخصی خود که از ChatGPT پرسید “درباره من بگو” و از دقت پاسخها شگفتزده شد، این قابلیت را تأیید کرد. این حافظه، تجربه کاربری را به طور قابل توجهی شخصیسازی میکند، زیرا مدل میتواند علایق، عادات و حتی تاریخچه تعاملات قبلی شما را به خاطر بسپارد و بر اساس آنها پاسخهای مرتبطتر و مفیدتری ارائه دهد.
آلتمن چشمانداز بلندمدت این ویژگی را نیز ترسیم کرد: در آینده، هوش مصنوعی ممکن است “در طول روز به شما گوش دهد و آنچه را انجام میدهید مشاهده کند” و به تدریج “بسطی از خود شما” و یک “همراه” شود که “فقط تلاش میکند به شما کمک کند بهترین باشید”. این رویکرد پیشگیرانه (proactive) به جای صرفاً پاسخدهی به سؤالات مستقیم، نشاندهنده گام بعدی در تعامل انسان و هوش مصنوعی است، جایی که AI نه تنها به یک ابزار، بلکه به یک دستیار فعال و سازنده در زندگی روزمره تبدیل میشود.
هوش مصنوعی و اقتصاد خلاق
یکی از مهمترین بخشهای گفتگوی سم آلتمن به تأثیر هوش مصنوعی بر صنایع خلاق و چالشهای حقوقی و اقتصادی ناشی از آن اختصاص داشت. این موضوع، که شامل نگرانیها از “دزدی مالکیت فکری” و “جایگاه هنرمندان” میشود، به طور جدی در جامعه مطرح است.
چالشهای مالکیت فکری و الهام
مجری با اشاره به تولید تصویری از “چارلی براون که خود را به عنوان یک هوش مصنوعی تصور میکند”، نگرانی از “دزدی مالکیت فکری” را مطرح کرد، زیرا OpenAI هیچ توافق رسمی با استودیوی Peanuts ندارد. آلتمن در پاسخ به این نگرانیها، بر فلسفه اصلی OpenAI تأکید کرد: “روحیه خلاق بشریت، چیزی فوقالعاده مهم است و ما میخواهیم ابزارهایی بسازیم که آن را بالا ببرند، که باعث شوند افراد جدید بتوانند هنر بهتر، محتوای بهتر، و رمانهای بهتری خلق کنند که همه ما از آنها لذت ببریم.” وی عمیقاً باور دارد که “انسانها در مرکز این امر خواهند بود”.
او همچنین تصدیق کرد که “مردم برای مدت طولانی بر خلاقیت دیگران بنا کردهاند و الهام گرفتهاند”. اما با “دموکراتیکسازی دسترسی به خلاقیت” و ساخت مداوم بر روی ایدههای یکدیگر توسط افراد، نیاز به “مدل جدیدی در مورد اقتصاد خروجی خلاق” احساس میشود. سوالاتی مانند “اگر بگویید میخواهید هنری را به سبک هفت نفر تولید کنید که همگی رضایت دادهاند، چگونه پول را بین آنها تقسیم میکنید؟” مطرح میشود. او اینها را “سوالات بزرگ” نامید، اما تأکید کرد که “هر بار در طول تاریخ، با قرار دادن فناوری بهتر و قدرتمندتر در دست خلاقان، خروجی خلاق جمعی ما بهبود یافته و مردم کارهای شگفتانگیزتری انجام دادهاند”.
مسئله زمانی پیچیدهتر میشود که رضایت هنرمند وجود نداشته باشد. مجری به مثال کارول کادوالادا، روزنامهنگار، اشاره کرد که ChatGPT توانسته بود سخنرانی “به سبک” او تولید کند، اما کادوالادا رضایت نداده بود. آلتمن توضیح داد که در حال حاضر، “اگر از ابزار تولید تصویر ما استفاده کنید و بگویید به سبک یک هنرمند زنده میخواهم، انجام نمیدهد”. اما اگر سبکی کلی، یک استودیو یا یک جنبش هنری را نام ببرید، سیستم آن را تولید میکند.
نیاز به مدلهای اقتصادی جدید
آلتمن اذعان کرد که خط بین “کپی کردن کار کسی” و “الهام گرفتن” مبهم است و نیاز به تعریف مجدد قوانین کپیرایت و “استفاده منصفانه” (fair use) در عصر هوش مصنوعی وجود دارد. او معتقد است که “یک مدل جدیدی در دنیای هوش مصنوعی وجود خواهد داشت که ما آن را کشف خواهیم کرد”. او همچنین به ایده مدل درآمدی جدیدی اشاره کرد که در آن اگر کاربری بخواهد اثری را “به نام این هنرمند” و “با رضایت او” تولید کند، “یک مدل درآمدی در آنجا وجود داشته باشد که این فکر خوبی برای بررسی است”.
دیدگاههای متفاوت در مورد هوش مصنوعی و خلاقیت
سم آلتمن به این نکته اشاره کرد که “خلاقترین افراد در حال حاضر جزو عصبانیترین یا ترسیدهترین افراد در مورد هوش مصنوعی هستند”. او به تفاوت “احساس اینکه کارتان از شما دزدیده میشود و آیندهتان از شما گرفته میشود” و “احساس اینکه کارتان تقویت میشود و میتواند تقویت شود” اشاره کرد. وی ابراز امیدواری کرد که بتوان این احساس را به سمت دومی تغییر داد تا “بشریت به طور کلی همه اینها را پذیراتر باشد”. او با این حال تصدیق کرد که “بعضی از افراد خلاق بسیار ناراحت هستند، بعضی دیگر میگویند ‘این شگفتانگیزترین ابزار است، من در حال انجام کارهای جدید باورنکردنی هستم.'”. آلتمن با افرادی که این تغییر را نمیخواهند یا وضعیت گذشته را ترجیح میدهند، همدلی نشان داد، اما تأکید کرد که این تغییر “قطعاً در حال وقوع است”.
رقابت، رشد و استراتژی محصول
در بخش دیگری از گفتگو، آلتمن به موضوع رقابت در فضای هوش مصنوعی، بهویژه با مدلهای متنباز (open source)، و همچنین رشد بیسابقه محصولات OpenAI پرداخت.
جایگاه مدلهای متنباز
مجری به مدل “DeepSeek” به عنوان یک رقیب متنباز اشاره کرد و از آلتمن پرسید که چقدر از ظهور آن متاثر شدهاند. آلتمن پاسخ داد که “متنباز جایگاه مهمی دارد”. او اعلام کرد که OpenAI اخیراً اولین جلسه جامعه خود را برای تعیین پارامترهای مدل متنباز خود برگزار کرده است و قصد دارند “یک مدل متنباز بسیار قدرتمند” منتشر کنند. او این مدل را “نزدیک به مرز دانش” و “بهتر از هر مدل متنباز فعلی” توصیف کرد.
آلتمن اذعان کرد که “مردم از این مدل به روشهایی استفاده خواهند کرد که برخی افراد در این اتاق، شاید شما یا من، دوست نداشته باشند”. اما او مجدداً بر اهمیت مدلهای متنباز به عنوان بخشی از “صورت فلکی” هوش مصنوعی تأکید کرد و پذیرفت که OpenAI “دیر به این موضوع عمل کرده است، اما حالا میخواهند آن را به خوبی انجام دهند”.
رشد بیسابقه ChatGPT
در مورد رشد شرکت، آلتمن فاش کرد که “آخرین باری که اعلام کردیم، 500 میلیون کاربر فعال هفتگی داشتیم و این به سرعت در حال رشد است”. او این رشد را “دیوانهکننده برای تجربه کردن” توصیف کرد و گفت که تیمهایشان “خسته و تحت فشار” هستند تا همه چیز را حفظ کنند. مجری نیز به این نکته اشاره کرد که آلتمن خصوصی به او گفته بود که “در عرض چند هفته” در زمینه محاسبات، دو برابر شدهاند.
با وجود رقابت و ظهور مدلهای جدید، آلتمن ابراز اطمینان کرد که مدلهای برتر همچنان شناسایی خواهند شد. او پیشبینی کرد که “بسیاری از مدلهای هوشمند در جهان کالایی خواهند شد”. او فکر میکند که OpenAI “بهترین” مدلها را خواهد داشت و برای برخی کاربردها این بهترین بودن لازم است، اما صادقانه گفت که “مدلها اکنون آنقدر باهوش هستند که برای بیشتر کارهایی که اکثر مردم میخواهند انجام دهند، به اندازه کافی خوب هستند”. او ابراز امیدواری کرد که این وضعیت با افزایش انتظارات مردم در طول زمان تغییر کند.
تمرکز بر محصول، نه فقط مدل
آلتمن تأکید کرد که “ما باید یک محصول عالی بسازیم، نه فقط یک مدل عالی”. او توضیح داد که مردم میخواهند قابلیتهایی مانند تولید تصویر (مانند Sora)، و ادغام آن با دیگر ابزارهای خود را داشته باشند. او دوباره به ویژگی “حافظه” جدید اشاره کرد که “خیلی بهتر از حافظه قبلی است” و گفت که OpenAI “کارهای بیشتری برای ساخت این محصول عالی و یکپارچه در پیش دارد”. او معتقد است که مردم به این محصول “چسبیده” و از آن استفاده خواهند کرد، حتی با وجود مدلهای زیاد دیگر در بازار.
افقهای جدید: هوش مصنوعی برای علم و مهندسی
سم آلتمن دیدگاههای هیجانانگیزی را در مورد کاربردهای آتی هوش مصنوعی در حوزههای علمی و مهندسی نرمافزار مطرح کرد و این حوزهها را به عنوان محرکهای اصلی پیشرفت بشریت معرفی نمود.
تسریع اکتشافات علمی
آلتمن ابراز کرد که “چیزی که من شخصاً بیشتر از همه در مورد آن هیجانزدهام، هوش مصنوعی برای علم است”. او با قاطعیت گفت: “من قویاً معتقدم که مهمترین محرک بهبود روزافزون جهان و زندگی مردم، کشف علمی جدید است”. به گفته او، کشف علمی به ما امکان میدهد “کارهای بیشتری را با کمترین منابع انجام دهیم” و “مرزهای آنچه ممکن است را به عقب برانیم”.
آلتمن خبرهای دلگرمکنندهای را از دانشمندان شنیده است که مدلهای اخیر OpenAI واقعاً “مولدتر از قبل” شدهاند. این افزایش بهرهوری مستقیماً بر روی “آنچه میتوانند کشف کنند” تأثیر میگذارد. وقتی از او درباره کشفیات محتمل در آینده نزدیک پرسیده شد، آلتمن به “پیشرفتهای معنیدار در مبارزه با بیماریها با ابزارهای هوش مصنوعی” اشاره کرد. او همچنین به امکان ابررساناهای دمای اتاق اشاره کرد و گفت که “از قوانین فیزیک منع نشده است، بنابراین باید ممکن باشد”، هرچند که “هنوز به یقین نمیدانیم”.
انقلاب در توسعه نرمافزار
آلتمن پیشبینی کرد که در ماههای آینده، “توسعه نرمافزار” شاهد یک دگرگونی عظیم دیگر خواهد بود. او خاطرنشان کرد که “فرآیند ایجاد نرمافزار اکنون به کلی با دو سال پیش تفاوت دارد”. اما او انتظار دارد که “حرکت بزرگی دیگر در ماههای آینده با شروع واقعی مهندسی نرمافزار عاملمحور (Agentic Software Engineering) رخ دهد”.
این پیشرفتها تا حدی چشمگیر بودهاند که آلتمن نقل کرد: “مهندسان گفتهاند که تقریباً لحظات مذهبی با برخی از مدلهای جدید داشتهاند، جایی که ناگهان میتوانند کاری را در یک بعدازظهر انجام دهند که دو سال طول میکشید”. این تجربه که “ذهن را به هم میریزد”، یکی از لحظات مهمی است که آلتمن آن را به احساس نزدیک شدن به “AGI” (هوش مصنوعی عمومی) تشبیه کرد.
چالشها و مخاطرات هوش مصنوعی: امنیت و کنترل
یکی از مهمترین بخشهای گفتگوی آلتمن به نگرانیها در مورد خطرات هوش مصنوعی و رویکرد OpenAI در قبال ایمنی اختصاص داشت. او به طور صریح به ترسها و شایعات پیرامون هوش مصنوعی و چگونگی مدیریت آنها توسط شرکتش پرداخت.
ترس از سوءاستفاده از مدلهای قدرتمند
مجری از آلتمن پرسید که “ترسناکترین چیزی که در داخل دیدهاید” چیست و آیا لحظهای بوده که با خود فکر کرده باشد “اوه اوه، باید به این توجه کنیم”. آلتمن پاسخ داد که “لحظات هیبتانگیزی” وجود داشته است، اما تأکید کرد که “ما به طور مخفیانه یک مدل آگاه (conscious model) یا چیزی که قادر به خودبهبودی باشد، نداریم”.
او با این حال، به خطرات واقعی سوءاستفاده از مدلهای قدرتمند اشاره کرد. او ذکر کرد که مردم زیاد درباره “پتانسیل انواع جدید بیوتروریسم”، “چالشهای واقعی امنیت سایبری” و مدلهایی که “قادر به خودبهبودی به گونهای هستند که منجر به نوعی از دست دادن کنترل میشود” صحبت میکنند. او این موارد را “خطرات بزرگ” نامید و همچنین به “اطلاعات غلط (disinformation)” یا “مدلها چیزهایی بگویند که مردم دوست ندارند” اشاره کرد.
چارچوب آمادگی و رویکرد ایمنی
آلتمن تأکید کرد که OpenAI قبل از انتشار مدلها، آنها را به صورت داخلی بررسی میکند. او به “چارچوب آمادگی” (preparedness framework) شرکت اشاره کرد که نحوه انجام این کار را مشخص میکند. با وجود “دیدگاههای متفاوت در مورد سیستمهای ایمنی هوش مصنوعی” و خروج برخی افراد از تیم ایمنی، آلتمن بر “سوابق عملکرد” OpenAI در این زمینه تأکید کرد. او با اشاره به اینکه “حدود 10% از جهان از سیستمهای ما استفاده میکنند”، ابراز غرور از “سابقه ایمنی” شرکت خود کرد.
آلتمن مفهوم “فرآیند تکراری” (iterative process) را برای یادگیری نحوه ساخت سیستمهای ایمن توضیح داد. این به معنای “استقرار آنها در جهان، دریافت بازخورد در حالی که خطرات نسبتاً پایین هستند، و یادگیری در مورد اینکه ‘هی، این چیزی است که باید به آن بپردازیم'” است. او افزود که با حرکت به سمت “سیستمهای عاملمحور” (agentic systems)، “یک دسته بزرگ از چیزهای جدید وجود دارد که باید یاد بگیریم چگونه به آنها بپردازیم”.
هوش مصنوعی عمومی (AGI) در مقابل هوش عاملمحور (Agentic AI)
مجری به این نکته اشاره کرد که بسیاری هوش مصنوعی عمومی (AGI) را با ChatGPT کنونی اشتباه میگیرند و پرسید که چرا ChatGPT AGI نیست. آلتمن توضیح داد که اولاً، ChatGPT “هنوز در بسیاری چیزها به طرز خجالتآوری بد است”. اما مهمتر از آن، “آن به طور مداوم یاد نمیگیرد و بهبود نمییابد”. او گفت: “نمیتواند برود و در چیزی که در حال حاضر در آن ضعیف است، بهتر شود. نمیتواند برود و علم جدیدی را کشف کند و درک خود را به روز کند”. همچنین، حتی با کاهش معیار، “نمیتواند هر کار دانشمحوری را که شما میتوانید در مقابل یک کامپیوتر انجام دهید، انجام دهد”. او گفت: “شما نمیتوانید بگویید ‘هی، برو این کار را برای شغل من انجام بده’ و او برود و در اینترنت کلیک کند و با کسی تماس بگیرد و فایلهای شما را نگاه کند و آن را انجام دهد”. او افزود که بدون این تواناییها، سیستمهای فعلی “قطعاً از AGI فاصله دارند”.
آلتمن اذعان کرد که تعریف AGI در میان محققان OpenAI “مانند شوخی است: اگر 10 محقق OpenAI را در یک اتاق بگذارید و بخواهید AGI را تعریف کنند، 14 تعریف خواهید شنید”. او به این نکته اشاره کرد که “مهم نیست کجا این لحظه جادویی را تمام میکنیم، اما با توجه به آنچه به نظر میرسد اتفاق خواهد افتاد این است که مدلها به سادگی هوشمندتر و تواناتر و هوشمندتر و تواناتر در این منحنی تصاعدی طولانی خواهند شد”. او گفت که “افراد مختلف آن را در نقاط مختلف AGI خواهند نامید، اما همه ما موافقیم که آن بسیار فراتر از آن خواهد رفت”. بنابراین، مهمتر از زمان ظهور AGI یا تعریف آن، این است که “چگونه درباره سیستمی صحبت کنیم که در تمام این مراحل و فراتر از آن ایمن باشد”.
سپس بحث به هوش عاملمحور (Agentic AI) تغییر یافت، که به عنوان “لحظه تغییر واقعی” و “چیزی که باید به آن توجه کرد” مطرح شد. هوش عاملمحور زمانی است که “هوش مصنوعی برای دنبال کردن پروژهها به تنهایی و کنار هم قرار دادن قطعات، آزاد میشود”. مجری به “Operator” OpenAI اشاره کرد که میتواند کارهایی مانند رزرو رستوران را انجام دهد، اما در عین حال نیاز به اطلاعات حساس مانند کارت اعتباری دارد و کمی “ترسناک” است. او اشاره کرد که جاشوا بنجیو (Joshua Bengio)، دانشمند برجسته AI، “هوش عاملمحور را چیزی میداند که باید به آن توجه کرد، این زمانی است که همه چیز میتواند به طرز وحشتناکی اشتباه پیش برود”.
آلتمن به مقایسه اولیه با اینترنت و عدم تمایل مردم به استفاده از کارت اعتباری آنلاین اشاره کرد و گفت که “مردم در ابتدا به کندی با هوش عاملمحور احساس راحتی خواهند کرد”. او تأکید کرد که “این چالش ایمنی مهمترین و بااهمیتترین چالش ایمنی است که تاکنون با آن روبرو بودهایم”. وقتی هوش مصنوعی به سیستمها و اطلاعات شما دسترسی پیدا میکند و میتواند “در کامپیوتر شما کلیک کند”، “زمانی که هوش مصنوعی اشتباه میکند، خطرات بسیار بالاتر است”. به همین دلیل، “یک محصول خوب یک محصول ایمن است”. “شما از عاملهای ما استفاده نخواهید کرد اگر به آنها اعتماد نکنید که حساب بانکی شما را خالی نمیکنند یا دادههای شما را حذف نمیکنند”. او گفت که پیشرفت OpenAI “وابسته به توانایی ما در ایجاد اعتماد و ایمنی است”.
در مورد “خطوط قرمز” (red lines)، آلتمن گفت که “این هدف چارچوب آمادگی ما است”. “ما سعی کردهایم نقاط خطرناک مهم یا دستههای آنها را مشخص کنیم، چگونگی اندازهگیری آنها را تعیین کنیم و چگونه چیزی را قبل از انتشار کاهش دهیم”.
مسئولیتپذیری، اخلاق و چشمانداز آینده OpenAI
گفتگوی سم آلتمن در TED2025 به جنبههای عمیقتری از مسئولیتپذیری فردی و سازمانی، اخلاقیات در توسعه فناوری، و چگونگی هدایت این تغییر عظیم جهانی پرداخت.
نگاه به سم آلتمن و OpenAI
مجری به دو روایت متضاد در مورد سم آلتمن اشاره کرد: یکی اینکه او یک “دیدگاهگرای باورنکردنی” است که “غیرممکن را انجام داده است” و چیزی “بسیار قدرتمندتر از هر چیزی که گوگل انجام داده” را خلق کرده است. روایت دیگر این است که او “راهش را عوض کرده” و از OpenAI (باز) به سمت “ساخت چیزی فوقالعاده قدرتمند” گرایش پیدا کرده و برخی از افراد کلیدیاش را از دست داده است، به طوری که “بعضیها باور دارند به او در این زمینه نمیتوان اعتماد کرد”.
آلتمن در پاسخ، خود را “شخصیتی پیچیده” توصیف کرد که “به خوبی به یک بعد تقلیل نمییابد”. “احتمالاً برخی از چیزهای خوب درست است و احتمالاً برخی از انتقادات نیز درست است”. او تأکید کرد که “هدف OpenAI این است که AGI را بسازد و آن را برای منافع گسترده بشریت، ایمن توزیع کند”. او معتقد است که “ما در این مسیر کارهای زیادی انجام دادهایم”. او اذعان کرد که “تاکتیکهای ما در طول زمان تغییر کرده است”. وی توضیح داد که در ابتدا “واقعاً نمیدانستیم قرار است چه چیزی باشیم” و فکر نمیکردند “لازم باشد شرکتی را حول این موضوع بسازیم”. اما “واقعیتهای آنچه این سیستمها نیاز داشتند از سرمایه” را آموختند. او معتقد است که OpenAI در زمینه “قرار دادن هوش مصنوعی فوقالعاده توانا با درجه بالایی از ایمنی در دست بسیاری از مردم و دادن ابزارهایی به آنها برای انجام کارهای شگفتانگیز، نمره بدی نخواهد گرفت”.
با این حال، او پذیرفت که “ما باید بیشتر متنباز باشیم”. او این رویکرد محتاطانه اولیه را “منطقی” دانست، زیرا “ما در مورد تأثیر این سیستمها و چگونگی ایمنسازی آنها مطمئن نبودیم”. اما اکنون، “من فکر میکنم ما به عنوان یک جهان درک بهتری داریم و زمان آن است که سیستمهای باز و بسیار توانا را در جهان قرار دهیم”. او حتی پیشبینی کرد که اگر سال بعد دوباره دعوت شود، ممکن است به خاطر سوءاستفاده از سیستمهای متنباز مورد انتقاد قرار گیرد، اما تأکید کرد که “در هر کاری که انجام میدهیم، مبادله وجود دارد”. او OpenAI را “یک بازیکن در این انقلاب هوش مصنوعی” دانست که “سعی میکند بهترین کار را انجام دهد و این فناوری را به شیوهای مسئولانه وارد جهان کند”. او اذعان کرد: “ما قطعاً اشتباهاتی کردهایم و قطعاً در آینده نیز بیشتر خواهیم کرد”. اما در مجموع، “ما بیش از یک دهه است که کاری را که قصد داشتیم انجام دهیم، انجام دادهایم” و “پایبندی به مأموریت و آنچه که ما در تلاش برای انجام آن هستیم، بسیار قوی است”.
مجری با اشاره به تمثیل “حلقه قدرت” از ارباب حلقهها، به ادعای ایلان ماسک پرداخت که آلتمن “توسط حلقه قدرت فاسد شده است”. آلتمن در پاسخ به اینکه آیا قدرت او را تغییر داده است، گفت: “به طرز تکاندهندهای همانند قبل است”. او توضیح داد که “به هر چیزی میتوان گام به گام عادت کرد” و اگر او ناگهان از ده سال پیش به امروز منتقل میشد، بسیار گیجکننده بود، اما “هر چیزی به نوعی به حالت عادی جدید تبدیل میشود”.
تناقض آزادی بیان و ایمنی
یک تغییر فلسفی اخیر در رویکرد OpenAI به ایمنی، در زمینه “آسیبهای گفتاری” (speech harms) در مدل جدید تصویر ساز آنها مشاهده شد. آلتمن گفت که “ما به کاربران آزادی بیشتری در مورد آنچه به طور سنتی آسیبهای گفتاری تلقی میکردیم، دادهایم”. قبلاً، محدودیتهای سختگیرانهتری وجود داشت. اما او معتقد است که “بخشی از همسوسازی مدل، دنبال کردن آنچه کاربر یک مدل میخواهد آن را انجام دهد، در چارچوب بسیار گستردهای از آنچه جامعه تصمیم میگیرد، است”. او مثالهایی از تولید “خشونت” یا “تقویت کلیشهها” را زد و گفت: “ما اکنون موضع بسیار بازتری اتخاذ میکنیم”. او تصدیق کرد که این موضوع “با آسیبهای دنیای واقعی تداخل پیدا میکند” و “باید خط را در کجا ترسیم کنیم”. اما دلیل این تغییر، “بازخورد جامعه” بوده که “مردم واقعاً نمیخواهند مدلها آنها را به روشهایی که منطقی نمیدانند، سانسور کنند”.
حکمرانی و مشارکت جمعی
در پاسخ به پیشنهاد برگزاری یک “اجلاس” برای تعیین خطوط ایمنی توافق شده جهانی، آلتمن رویکرد متفاوتی را ارائه داد. او گفت: “من بسیار بیشتر علاقهمندم به آنچه صدها میلیون کاربر ما به طور کلی میخواهند”. او اظهار داشت که “بسیاری از مسائل تاریخی در اجلاسهای کوچک نخبگان تصمیمگیری شدهاند”، اما “یکی از چیزهای جدید جالب در مورد هوش مصنوعی این است که هوش مصنوعی ما میتواند با همه مردم روی زمین صحبت کند و ما میتوانیم ترجیحات ارزش جمعی (collective value preference) همه را یاد بگیریم، به جای اینکه عدهای از افراد که توسط جامعه برگزیده شدهاند، در یک اتاق بنشینند و این تصمیمات را بگیرند”. او این را “بسیار جالب” خواند و گفت که OpenAI “بیشتر در این مسیر عمل خواهد کرد”.
او معتقد است که هوش مصنوعی میتواند به ما “کمک کند عاقلتر باشیم، تصمیمات بهتری بگیریم، میتواند با ما صحبت کند”. “اگر بگوییم ‘هی، من چیز X را میخواهم’، به جای اینکه ‘جمعیت’ آن را بسازند، هوش مصنوعی میتواند بگوید ‘هی، کاملاً درک میکنم که شما این را میخواهید، اگر این چیزی است که در پایان این گفتگو میخواهید، شما کنترل دارید و انتخاب میکنید، اما آیا آن را از دیدگاه این شخص یا تأثیر آن بر این افراد در نظر گرفتهاید؟'”. او معتقد است که “هوش مصنوعی میتواند به ما کمک کند تا عاقلتر باشیم و تصمیمات حکمرانی جمعی بهتری بگیریم”.
چشمانداز آینده جهان با هوش مصنوعی
سم آلتمن گفتگوی خود را با ترسیم یک چشمانداز آیندهنگرانه از جهانی که فرزندان ما در آن بزرگ خواهند شد، و نقش هوش مصنوعی در شکلدهی به آن به پایان برد.
آینده فرزندان ما در دنیای هوش مصنوعی
آلتمن با یک تمثیل ساده اما قدرتمند شروع کرد: او به یاد آوردن یک ویدیوی قدیمی در یوتیوب از یک کودک نوپا در مطب دکتر، که سعی داشت یک مجله را مانند آیپد لمس و بزرگ کند و وقتی موفق نمیشد، عصبانی میشد. برای آن کودک، مجله “یک آیپد خراب” بود، زیرا او هرگز دنیایی را بدون نمایشگرهای لمسی درک نکرده بود. آلتمن این را به آینده فرزندان ما پیوند داد: “امیدوارم فرزندان من هرگز از هوش مصنوعی باهوشتر نباشند”. او ادامه داد: “آنها هرگز در دنیایی بزرگ نخواهند شد که در آن محصولات و خدمات به طرز باورنکردنی هوشمند و فوقالعاده توانا نیستند”. آنها هرگز در دنیایی بزرگ نخواهند شد که در آن “کامپیوترها شما را درک نمیکنند و هر آنچه را که میتوانید تصور کنید، انجام نمیدهند”.
آلتمن این آینده را با کلمات زیر توصیف کرد:
- “جهانی با فراوانی مادی باورنکردنی”.
- “جهانی که نرخ تغییر در آن به طرز باورنکردنی سریع است و اتفاقات جدید شگفتانگیزی در آن رخ میدهد”.
- “جهانی که در آن توانایی فردی، تأثیرگذاری و هر چیز دیگر، به مراتب فراتر از چیزی است که یک شخص امروز میتواند انجام دهد”.
او ابراز امیدواری کرد که “فرزندان من و همه فرزندان شما، به ما با نوعی ترحم و نوستالژی نگاه کنند و بگویند ‘آنها زندگیهای وحشتناکی داشتند، بسیار محدود بودند'”. او این چشمانداز را “عالی” نامید.
نقش Sam Altman در این آینده
مجری با اشاره به نقش سم آلتمن در شکلدهی به این آینده، گفت که او “برخی از بزرگترین فرصتها، بزرگترین چالشهای اخلاقی، و بزرگترین تصمیمات تاریخ را در پیش رو خواهد داشت”. او اطمینان داد که “همه اینجا او را تشویق خواهند کرد تا کار درست را انجام دهد”. آلتمن در پاسخ، متواضعانه گفت: “ما تمام تلاش خود را خواهیم کرد”.
این پایانبندی نه تنها دیدگاه خوشبینانه آلتمن را در مورد آیندهای روشنتر و توانمندتر با هوش مصنوعی منعکس میکند، بلکه بر مسئولیت عظیمی که بر دوش رهبران هوش مصنوعی است، تأکید میورزد. این چشمانداز، فراتر از صرفاً فناوری، به معنای تحول در ماهیت وجود بشر و تواناییهای اوست.
نتیجهگیری
گفتگوی سم آلتمن در TED2025، نه تنها به عنوان یک پنجره به جدیدترین دستاوردهای OpenAI، بلکه به عنوان یک نقشه راه برای درک آیندهای که هوش مصنوعی در حال ساخت آن است، عمل میکند. از قابلیتهای خیرهکننده Sora و GPT-4o که مرزهای خلاقیت را جابجا میکنند، تا چالشهای پیچیده مالکیت فکری و مدلهای اقتصادی نوین، و تا بحثهای عمیق درباره ایمنی، حکمرانی و تعریف هوش مصنوعی عمومی، آلتمن با صراحت و بینش صحبت کرد.
وی ضمن تأکید بر پتانسیل هوش مصنوعی در تسریع اکتشافات علمی و متحول کردن مهندسی نرمافزار، به خطرات بالقوه مانند سوءاستفادههای مخرب و پیامدهای هوش عاملمحور نیز پرداخت. رویکرد OpenAI، بر پایه “چارچوب آمادگی” و “فرآیند تکراری” برای یادگیری ایمنی، نشاندهنده تعهد آنها به توسعه مسئولانه است، هرچند که در مسیر با چالشها و انتقاداتی نیز روبرو هستند.
دیدگاه آلتمن در مورد حکمرانی جمعی و ترجیحات ارزش کاربران، به جای تصمیمات “اجلاسهای نخبگان”، نشاندهنده یک رویکرد دموکراتیکتر در شکلدهی به آینده هوش مصنوعی است. او آیندهای را برای فرزندان ما ترسیم میکند که در آن هوش مصنوعی نه تنها زندگی را آسانتر و پربارتر میکند، بلکه تواناییهای فردی را به سطوح بیسابقهای ارتقا میدهد.
در نهایت، سخنان سم آلتمن تصویر یک تغییر گریزناپذیر و عظیم را ترسیم میکند که در آن هوش مصنوعی نه تنها یک ابزار، بلکه یک نیروی دگرگونکننده بنیادی برای بشریت است. این انقلاب، فرصتهای بیشماری را به همراه دارد، اما نیازمند احتیاط، هوشمندی، و همکاری جمعی برای هدایت آن به سمت آیندهای امن و پربار است.
بدون دیدگاه