انقلاب هوش مصنوعی: سم آلتمن در تد و چشم‌انداز آینده‌ای گریزناپذیر

چکیده

سم آلتمن، مدیرعامل OpenAI، در سخنرانی خود در TED2025، به بررسی عمیق و روشنگرانه‌ای از آخرین پیشرفت‌های هوش مصنوعی، تأثیر آن بر صنایع مختلف، به‌ویژه اقتصاد خلاق، چالش‌های ایمنی و اخلاقی، و چشم‌انداز بلندمدت جامعه‌ای با هوش مصنوعی قدرتمند پرداخت. وی ضمن معرفی قابلیت‌های خیره‌کننده مدل‌هایی چون Sora و GPT-4o و رشد بی‌سابقه ChatGPT، بر لزوم ایجاد مدل‌های اقتصادی جدید برای خلاقیت، استراتژی OpenAI در قبال مدل‌های متن‌باز، و اهمیت توسعه هوش مصنوعی برای پیشرفت علمی و مهندسی نرم‌افزار تأکید کرد. آلتمن همچنین با صراحت به نگرانی‌ها در مورد سوءاستفاده از هوش مصنوعی و خطرات هوش عامل‌محور (Agentic AI) پرداخت و رویکرد OpenAI را در قبال ایمنی و حکمرانی تکراری توضیح داد. در نهایت، او با دیدگاهی خوش‌بینانه و در عین حال واقع‌بینانه، آینده‌ای را ترسیم کرد که در آن هوش مصنوعی به عنوان یک ابزار متحول‌کننده، زندگی بشر را به سمت فراوانی مادی و توانایی‌های فردی بی‌نظیر سوق خواهد داد. این مقاله با تکیه بر سخنان آلتمن، جنبه‌های مختلف این انقلاب فناورانه را از دیدگاه یکی از پیشروان اصلی آن بررسی می‌کند.

مقدمه

در دنیایی که هر روز با سرعت سرسام‌آوری در حال تغییر و تحول است، هوش مصنوعی (AI) به عنوان یکی از قدرتمندترین نیروهای محرکه این دگرگونی، در کانون توجه قرار گرفته است. در قلب این انقلاب، شرکت‌هایی مانند OpenAI و رهبران فکری چون سم آلتمن ایستاده‌اند که در حال شکل‌دهی به آینده‌ای هستند که تا چندی پیش تنها در قلمرو داستان‌های علمی-تخیلی جای داشت. گفتگوی سم آلتمن در کنفرانس TED2025، فرصتی بی‌نظیر برای درک عمیق‌تر این چشم‌انداز، پیشرفت‌های اخیر و چالش‌های پیش‌رو فراهم آورد. این گفتگو نه تنها به نمایش قابلیت‌های خیره‌کننده مدل‌های جدید می‌پردازد، بلکه به نگرانی‌های عمیق اجتماعی، اقتصادی و اخلاقی ناشی از ظهور هوش مصنوعی قدرتمند نیز پاسخ می‌دهد.

در این مقاله، ما به واکاوی نکات کلیدی مطرح شده توسط سم آلتمن خواهیم پرداخت؛ از نوآوری‌های محصولی که “دیوانه‌کننده” و “عجیب” توصیف شده‌اند تا دیدگاه‌های او درباره اقتصاد خلاق، رقابت با مدل‌های متن‌باز، کاربردهای هوش مصنوعی در علم و مهندسی، و مهم‌تر از همه، چگونگی تضمین ایمنی و مسئولیت‌پذیری در مواجهه با فناوری که به سرعت فراتر از درک فعلی ما پیش می‌رود. آلتمن در این گفتگو تلاش می‌کند تا تعادلی میان هیجان ناشی از پتانسیل‌های بی‌نهایت هوش مصنوعی و ضرورت رویکرد محتاطانه و متفکرانه در قبال خطرات احتمالی آن برقرار کند، و به مخاطبان خود این پیام را برساند که این تغییر نه تنها اجتناب‌ناپذیر است، بلکه می‌تواند به نفع کل بشریت باشد، مشروط بر اینکه با خرد و مشارکت جمعی هدایت شود.

نوآوری‌های اخیر و قابلیت‌های مدل‌های هوش مصنوعی

سخنرانی سم آلتمن در TED2025 با نمایش قابلیت‌های شگفت‌انگیز مدل‌های هوش مصنوعی اخیر OpenAI آغاز شد، که نشان‌دهنده جهش‌های کوانتومی در توانایی‌های این سیستم‌هاست.

پیشرفت‌های خیره‌کننده در تولید محتوا

یکی از مثال‌های برجسته، مدل Sora بود که قابلیت تولید تصویر و ویدئو را دارد. مجری برنامه با به اشتراک گذاشتن ویدیویی که از Sora خواسته بود تا “آنچه در هنگام به اشتراک‌گذاری مکاشفات تکان‌دهنده در TED به نظر می‌رسد” را تصور کند، حضار را تحت تأثیر قرار داد. نتیجه، یک ویدئوی قابل قبول بود که آلتمن به آن نمره B+ داد، به ویژه با توجه به جزئیاتی مانند پنج انگشت بر روی دست‌ها و شباهت به لباس مجری. این مثال به خوبی نشان می‌دهد که Sora فراتر از یک ابزار ساده تولید تصویر است؛ “مدل جدید تولید تصویر بخشی از GPT-4o است، بنابراین تمام هوش در آن وجود دارد”. این ارتباط عمیق با “هوش هسته‌ای” مدل کلی GPT-4o، به Sora امکان می‌دهد کارهای خلاقانه‌تر و پیچیده‌تری انجام دهد که فراتر از تولید صرف تصاویر هستند.

مجری همچنین به توانایی مدل در خلق دیاگرام‌های مفهومی اشاره کرد. او از Sora خواست تا دیاگرامی را برای نشان دادن تفاوت بین هوش و آگاهی طراحی کند و نتیجه را “ساده اما باورنکردنی” توصیف کرد. این توانایی در پیوند دادن مفاهیم انتزاعی به نمایش‌های بصری، دلالت بر سطح بالاتری از درک و تولید محتوا دارد که صرفاً به تقلید الگوهای موجود در داده‌های آموزشی محدود نمی‌شود.

علاوه بر این، آلتمن به طور کلی به کیفیت نگارش مدل‌های جدید اشاره کرد و گفت که این کیفیت “واقعاً به سطح جدیدی می‌رسد”. این پیشرفت نه تنها در قابلیت‌های GPT-4o بلکه در جزئیات دیگر نیز قابل مشاهده است.

حافظه و تعامل شخصی‌سازی‌شده

یکی از هیجان‌انگیزترین ویژگی‌های جدیدی که آلتمن به آن اشاره کرد، قابلیت بهبود یافته “حافظه” (Memory) در ChatGPT است. این ویژگی به مدل اجازه می‌دهد تا “در طول عمر شما، شما را بشناسد”. مجری با مثال شخصی خود که از ChatGPT پرسید “درباره من بگو” و از دقت پاسخ‌ها شگفت‌زده شد، این قابلیت را تأیید کرد. این حافظه، تجربه کاربری را به طور قابل توجهی شخصی‌سازی می‌کند، زیرا مدل می‌تواند علایق، عادات و حتی تاریخچه تعاملات قبلی شما را به خاطر بسپارد و بر اساس آن‌ها پاسخ‌های مرتبط‌تر و مفیدتری ارائه دهد.

آلتمن چشم‌انداز بلندمدت این ویژگی را نیز ترسیم کرد: در آینده، هوش مصنوعی ممکن است “در طول روز به شما گوش دهد و آنچه را انجام می‌دهید مشاهده کند” و به تدریج “بسطی از خود شما” و یک “همراه” شود که “فقط تلاش می‌کند به شما کمک کند بهترین باشید”. این رویکرد پیش‌گیرانه (proactive) به جای صرفاً پاسخ‌دهی به سؤالات مستقیم، نشان‌دهنده گام بعدی در تعامل انسان و هوش مصنوعی است، جایی که AI نه تنها به یک ابزار، بلکه به یک دستیار فعال و سازنده در زندگی روزمره تبدیل می‌شود.

هوش مصنوعی و اقتصاد خلاق

یکی از مهم‌ترین بخش‌های گفتگوی سم آلتمن به تأثیر هوش مصنوعی بر صنایع خلاق و چالش‌های حقوقی و اقتصادی ناشی از آن اختصاص داشت. این موضوع، که شامل نگرانی‌ها از “دزدی مالکیت فکری” و “جایگاه هنرمندان” می‌شود، به طور جدی در جامعه مطرح است.

چالش‌های مالکیت فکری و الهام

مجری با اشاره به تولید تصویری از “چارلی براون که خود را به عنوان یک هوش مصنوعی تصور می‌کند”، نگرانی از “دزدی مالکیت فکری” را مطرح کرد، زیرا OpenAI هیچ توافق رسمی با استودیوی Peanuts ندارد. آلتمن در پاسخ به این نگرانی‌ها، بر فلسفه اصلی OpenAI تأکید کرد: “روحیه خلاق بشریت، چیزی فوق‌العاده مهم است و ما می‌خواهیم ابزارهایی بسازیم که آن را بالا ببرند، که باعث شوند افراد جدید بتوانند هنر بهتر، محتوای بهتر، و رمان‌های بهتری خلق کنند که همه ما از آن‌ها لذت ببریم.” وی عمیقاً باور دارد که “انسان‌ها در مرکز این امر خواهند بود”.

او همچنین تصدیق کرد که “مردم برای مدت طولانی بر خلاقیت دیگران بنا کرده‌اند و الهام گرفته‌اند”. اما با “دموکراتیک‌سازی دسترسی به خلاقیت” و ساخت مداوم بر روی ایده‌های یکدیگر توسط افراد، نیاز به “مدل جدیدی در مورد اقتصاد خروجی خلاق” احساس می‌شود. سوالاتی مانند “اگر بگویید می‌خواهید هنری را به سبک هفت نفر تولید کنید که همگی رضایت داده‌اند، چگونه پول را بین آن‌ها تقسیم می‌کنید؟” مطرح می‌شود. او این‌ها را “سوالات بزرگ” نامید، اما تأکید کرد که “هر بار در طول تاریخ، با قرار دادن فناوری بهتر و قدرتمندتر در دست خلاقان، خروجی خلاق جمعی ما بهبود یافته و مردم کارهای شگفت‌انگیزتری انجام داده‌اند”.

مسئله زمانی پیچیده‌تر می‌شود که رضایت هنرمند وجود نداشته باشد. مجری به مثال کارول کادوالادا، روزنامه‌نگار، اشاره کرد که ChatGPT توانسته بود سخنرانی “به سبک” او تولید کند، اما کادوالادا رضایت نداده بود. آلتمن توضیح داد که در حال حاضر، “اگر از ابزار تولید تصویر ما استفاده کنید و بگویید به سبک یک هنرمند زنده می‌خواهم، انجام نمی‌دهد”. اما اگر سبکی کلی، یک استودیو یا یک جنبش هنری را نام ببرید، سیستم آن را تولید می‌کند.

نیاز به مدل‌های اقتصادی جدید

آلتمن اذعان کرد که خط بین “کپی کردن کار کسی” و “الهام گرفتن” مبهم است و نیاز به تعریف مجدد قوانین کپی‌رایت و “استفاده منصفانه” (fair use) در عصر هوش مصنوعی وجود دارد. او معتقد است که “یک مدل جدیدی در دنیای هوش مصنوعی وجود خواهد داشت که ما آن را کشف خواهیم کرد”. او همچنین به ایده مدل درآمدی جدیدی اشاره کرد که در آن اگر کاربری بخواهد اثری را “به نام این هنرمند” و “با رضایت او” تولید کند، “یک مدل درآمدی در آنجا وجود داشته باشد که این فکر خوبی برای بررسی است”.

دیدگاه‌های متفاوت در مورد هوش مصنوعی و خلاقیت

سم آلتمن به این نکته اشاره کرد که “خلاق‌ترین افراد در حال حاضر جزو عصبانی‌ترین یا ترسیده‌ترین افراد در مورد هوش مصنوعی هستند”. او به تفاوت “احساس اینکه کارتان از شما دزدیده می‌شود و آینده‌تان از شما گرفته می‌شود” و “احساس اینکه کارتان تقویت می‌شود و می‌تواند تقویت شود” اشاره کرد. وی ابراز امیدواری کرد که بتوان این احساس را به سمت دومی تغییر داد تا “بشریت به طور کلی همه این‌ها را پذیراتر باشد”. او با این حال تصدیق کرد که “بعضی از افراد خلاق بسیار ناراحت هستند، بعضی دیگر می‌گویند ‘این شگفت‌انگیزترین ابزار است، من در حال انجام کارهای جدید باورنکردنی هستم.'”. آلتمن با افرادی که این تغییر را نمی‌خواهند یا وضعیت گذشته را ترجیح می‌دهند، همدلی نشان داد، اما تأکید کرد که این تغییر “قطعاً در حال وقوع است”.

رقابت، رشد و استراتژی محصول

در بخش دیگری از گفتگو، آلتمن به موضوع رقابت در فضای هوش مصنوعی، به‌ویژه با مدل‌های متن‌باز (open source)، و همچنین رشد بی‌سابقه محصولات OpenAI پرداخت.

جایگاه مدل‌های متن‌باز

مجری به مدل “DeepSeek” به عنوان یک رقیب متن‌باز اشاره کرد و از آلتمن پرسید که چقدر از ظهور آن متاثر شده‌اند. آلتمن پاسخ داد که “متن‌باز جایگاه مهمی دارد”. او اعلام کرد که OpenAI اخیراً اولین جلسه جامعه خود را برای تعیین پارامترهای مدل متن‌باز خود برگزار کرده است و قصد دارند “یک مدل متن‌باز بسیار قدرتمند” منتشر کنند. او این مدل را “نزدیک به مرز دانش” و “بهتر از هر مدل متن‌باز فعلی” توصیف کرد.

آلتمن اذعان کرد که “مردم از این مدل به روش‌هایی استفاده خواهند کرد که برخی افراد در این اتاق، شاید شما یا من، دوست نداشته باشند”. اما او مجدداً بر اهمیت مدل‌های متن‌باز به عنوان بخشی از “صورت فلکی” هوش مصنوعی تأکید کرد و پذیرفت که OpenAI “دیر به این موضوع عمل کرده است، اما حالا می‌خواهند آن را به خوبی انجام دهند”.

رشد بی‌سابقه ChatGPT

در مورد رشد شرکت، آلتمن فاش کرد که “آخرین باری که اعلام کردیم، 500 میلیون کاربر فعال هفتگی داشتیم و این به سرعت در حال رشد است”. او این رشد را “دیوانه‌کننده برای تجربه کردن” توصیف کرد و گفت که تیم‌هایشان “خسته و تحت فشار” هستند تا همه چیز را حفظ کنند. مجری نیز به این نکته اشاره کرد که آلتمن خصوصی به او گفته بود که “در عرض چند هفته” در زمینه محاسبات، دو برابر شده‌اند.

با وجود رقابت و ظهور مدل‌های جدید، آلتمن ابراز اطمینان کرد که مدل‌های برتر همچنان شناسایی خواهند شد. او پیش‌بینی کرد که “بسیاری از مدل‌های هوشمند در جهان کالایی خواهند شد”. او فکر می‌کند که OpenAI “بهترین” مدل‌ها را خواهد داشت و برای برخی کاربردها این بهترین بودن لازم است، اما صادقانه گفت که “مدل‌ها اکنون آنقدر باهوش هستند که برای بیشتر کارهایی که اکثر مردم می‌خواهند انجام دهند، به اندازه کافی خوب هستند”. او ابراز امیدواری کرد که این وضعیت با افزایش انتظارات مردم در طول زمان تغییر کند.

تمرکز بر محصول، نه فقط مدل

آلتمن تأکید کرد که “ما باید یک محصول عالی بسازیم، نه فقط یک مدل عالی”. او توضیح داد که مردم می‌خواهند قابلیت‌هایی مانند تولید تصویر (مانند Sora)، و ادغام آن با دیگر ابزارهای خود را داشته باشند. او دوباره به ویژگی “حافظه” جدید اشاره کرد که “خیلی بهتر از حافظه قبلی است” و گفت که OpenAI “کارهای بیشتری برای ساخت این محصول عالی و یکپارچه در پیش دارد”. او معتقد است که مردم به این محصول “چسبیده” و از آن استفاده خواهند کرد، حتی با وجود مدل‌های زیاد دیگر در بازار.

افق‌های جدید: هوش مصنوعی برای علم و مهندسی

سم آلتمن دیدگاه‌های هیجان‌انگیزی را در مورد کاربردهای آتی هوش مصنوعی در حوزه‌های علمی و مهندسی نرم‌افزار مطرح کرد و این حوزه‌ها را به عنوان محرک‌های اصلی پیشرفت بشریت معرفی نمود.

تسریع اکتشافات علمی

آلتمن ابراز کرد که “چیزی که من شخصاً بیشتر از همه در مورد آن هیجان‌زده‌ام، هوش مصنوعی برای علم است”. او با قاطعیت گفت: “من قویاً معتقدم که مهم‌ترین محرک بهبود روزافزون جهان و زندگی مردم، کشف علمی جدید است”. به گفته او، کشف علمی به ما امکان می‌دهد “کارهای بیشتری را با کمترین منابع انجام دهیم” و “مرزهای آنچه ممکن است را به عقب برانیم”.

آلتمن خبرهای دلگرم‌کننده‌ای را از دانشمندان شنیده است که مدل‌های اخیر OpenAI واقعاً “مولدتر از قبل” شده‌اند. این افزایش بهره‌وری مستقیماً بر روی “آنچه می‌توانند کشف کنند” تأثیر می‌گذارد. وقتی از او درباره کشفیات محتمل در آینده نزدیک پرسیده شد، آلتمن به “پیشرفت‌های معنی‌دار در مبارزه با بیماری‌ها با ابزارهای هوش مصنوعی” اشاره کرد. او همچنین به امکان ابررساناهای دمای اتاق اشاره کرد و گفت که “از قوانین فیزیک منع نشده است، بنابراین باید ممکن باشد”، هرچند که “هنوز به یقین نمی‌دانیم”.

انقلاب در توسعه نرم‌افزار

آلتمن پیش‌بینی کرد که در ماه‌های آینده، “توسعه نرم‌افزار” شاهد یک دگرگونی عظیم دیگر خواهد بود. او خاطرنشان کرد که “فرآیند ایجاد نرم‌افزار اکنون به کلی با دو سال پیش تفاوت دارد”. اما او انتظار دارد که “حرکت بزرگی دیگر در ماه‌های آینده با شروع واقعی مهندسی نرم‌افزار عامل‌محور (Agentic Software Engineering) رخ دهد”.

این پیشرفت‌ها تا حدی چشمگیر بوده‌اند که آلتمن نقل کرد: “مهندسان گفته‌اند که تقریباً لحظات مذهبی با برخی از مدل‌های جدید داشته‌اند، جایی که ناگهان می‌توانند کاری را در یک بعدازظهر انجام دهند که دو سال طول می‌کشید”. این تجربه که “ذهن را به هم می‌ریزد”، یکی از لحظات مهمی است که آلتمن آن را به احساس نزدیک شدن به “AGI” (هوش مصنوعی عمومی) تشبیه کرد.

چالش‌ها و مخاطرات هوش مصنوعی: امنیت و کنترل

یکی از مهم‌ترین بخش‌های گفتگوی آلتمن به نگرانی‌ها در مورد خطرات هوش مصنوعی و رویکرد OpenAI در قبال ایمنی اختصاص داشت. او به طور صریح به ترس‌ها و شایعات پیرامون هوش مصنوعی و چگونگی مدیریت آنها توسط شرکتش پرداخت.

ترس از سوءاستفاده از مدل‌های قدرتمند

مجری از آلتمن پرسید که “ترسناک‌ترین چیزی که در داخل دیده‌اید” چیست و آیا لحظه‌ای بوده که با خود فکر کرده باشد “اوه اوه، باید به این توجه کنیم”. آلتمن پاسخ داد که “لحظات هیبت‌انگیزی” وجود داشته است، اما تأکید کرد که “ما به طور مخفیانه یک مدل آگاه (conscious model) یا چیزی که قادر به خودبهبودی باشد، نداریم”.

او با این حال، به خطرات واقعی سوءاستفاده از مدل‌های قدرتمند اشاره کرد. او ذکر کرد که مردم زیاد درباره “پتانسیل انواع جدید بیوتروریسم”، “چالش‌های واقعی امنیت سایبری” و مدل‌هایی که “قادر به خودبهبودی به گونه‌ای هستند که منجر به نوعی از دست دادن کنترل می‌شود” صحبت می‌کنند. او این موارد را “خطرات بزرگ” نامید و همچنین به “اطلاعات غلط (disinformation)” یا “مدل‌ها چیزهایی بگویند که مردم دوست ندارند” اشاره کرد.

چارچوب آمادگی و رویکرد ایمنی

آلتمن تأکید کرد که OpenAI قبل از انتشار مدل‌ها، آن‌ها را به صورت داخلی بررسی می‌کند. او به “چارچوب آمادگی” (preparedness framework) شرکت اشاره کرد که نحوه انجام این کار را مشخص می‌کند. با وجود “دیدگاه‌های متفاوت در مورد سیستم‌های ایمنی هوش مصنوعی” و خروج برخی افراد از تیم ایمنی، آلتمن بر “سوابق عملکرد” OpenAI در این زمینه تأکید کرد. او با اشاره به اینکه “حدود 10% از جهان از سیستم‌های ما استفاده می‌کنند”، ابراز غرور از “سابقه ایمنی” شرکت خود کرد.

آلتمن مفهوم “فرآیند تکراری” (iterative process) را برای یادگیری نحوه ساخت سیستم‌های ایمن توضیح داد. این به معنای “استقرار آن‌ها در جهان، دریافت بازخورد در حالی که خطرات نسبتاً پایین هستند، و یادگیری در مورد اینکه ‘هی، این چیزی است که باید به آن بپردازیم'” است. او افزود که با حرکت به سمت “سیستم‌های عامل‌محور” (agentic systems)، “یک دسته بزرگ از چیزهای جدید وجود دارد که باید یاد بگیریم چگونه به آن‌ها بپردازیم”.

هوش مصنوعی عمومی (AGI) در مقابل هوش عامل‌محور (Agentic AI)

مجری به این نکته اشاره کرد که بسیاری هوش مصنوعی عمومی (AGI) را با ChatGPT کنونی اشتباه می‌گیرند و پرسید که چرا ChatGPT AGI نیست. آلتمن توضیح داد که اولاً، ChatGPT “هنوز در بسیاری چیزها به طرز خجالت‌آوری بد است”. اما مهم‌تر از آن، “آن به طور مداوم یاد نمی‌گیرد و بهبود نمی‌یابد”. او گفت: “نمی‌تواند برود و در چیزی که در حال حاضر در آن ضعیف است، بهتر شود. نمی‌تواند برود و علم جدیدی را کشف کند و درک خود را به روز کند”. همچنین، حتی با کاهش معیار، “نمی‌تواند هر کار دانش‌محوری را که شما می‌توانید در مقابل یک کامپیوتر انجام دهید، انجام دهد”. او گفت: “شما نمی‌توانید بگویید ‘هی، برو این کار را برای شغل من انجام بده’ و او برود و در اینترنت کلیک کند و با کسی تماس بگیرد و فایل‌های شما را نگاه کند و آن را انجام دهد”. او افزود که بدون این توانایی‌ها، سیستم‌های فعلی “قطعاً از AGI فاصله دارند”.

آلتمن اذعان کرد که تعریف AGI در میان محققان OpenAI “مانند شوخی است: اگر 10 محقق OpenAI را در یک اتاق بگذارید و بخواهید AGI را تعریف کنند، 14 تعریف خواهید شنید”. او به این نکته اشاره کرد که “مهم نیست کجا این لحظه جادویی را تمام می‌کنیم، اما با توجه به آنچه به نظر می‌رسد اتفاق خواهد افتاد این است که مدل‌ها به سادگی هوشمندتر و تواناتر و هوشمندتر و تواناتر در این منحنی تصاعدی طولانی خواهند شد”. او گفت که “افراد مختلف آن را در نقاط مختلف AGI خواهند نامید، اما همه ما موافقیم که آن بسیار فراتر از آن خواهد رفت”. بنابراین، مهم‌تر از زمان ظهور AGI یا تعریف آن، این است که “چگونه درباره سیستمی صحبت کنیم که در تمام این مراحل و فراتر از آن ایمن باشد”.

سپس بحث به هوش عامل‌محور (Agentic AI) تغییر یافت، که به عنوان “لحظه تغییر واقعی” و “چیزی که باید به آن توجه کرد” مطرح شد. هوش عامل‌محور زمانی است که “هوش مصنوعی برای دنبال کردن پروژه‌ها به تنهایی و کنار هم قرار دادن قطعات، آزاد می‌شود”. مجری به “Operator” OpenAI اشاره کرد که می‌تواند کارهایی مانند رزرو رستوران را انجام دهد، اما در عین حال نیاز به اطلاعات حساس مانند کارت اعتباری دارد و کمی “ترسناک” است. او اشاره کرد که جاشوا بنجیو (Joshua Bengio)، دانشمند برجسته AI، “هوش عامل‌محور را چیزی می‌داند که باید به آن توجه کرد، این زمانی است که همه چیز می‌تواند به طرز وحشتناکی اشتباه پیش برود”.

آلتمن به مقایسه اولیه با اینترنت و عدم تمایل مردم به استفاده از کارت اعتباری آنلاین اشاره کرد و گفت که “مردم در ابتدا به کندی با هوش عامل‌محور احساس راحتی خواهند کرد”. او تأکید کرد که “این چالش ایمنی مهم‌ترین و بااهمیت‌ترین چالش ایمنی است که تاکنون با آن روبرو بوده‌ایم”. وقتی هوش مصنوعی به سیستم‌ها و اطلاعات شما دسترسی پیدا می‌کند و می‌تواند “در کامپیوتر شما کلیک کند”، “زمانی که هوش مصنوعی اشتباه می‌کند، خطرات بسیار بالاتر است”. به همین دلیل، “یک محصول خوب یک محصول ایمن است”. “شما از عامل‌های ما استفاده نخواهید کرد اگر به آنها اعتماد نکنید که حساب بانکی شما را خالی نمی‌کنند یا داده‌های شما را حذف نمی‌کنند”. او گفت که پیشرفت OpenAI “وابسته به توانایی ما در ایجاد اعتماد و ایمنی است”.

در مورد “خطوط قرمز” (red lines)، آلتمن گفت که “این هدف چارچوب آمادگی ما است”. “ما سعی کرده‌ایم نقاط خطرناک مهم یا دسته‌های آن‌ها را مشخص کنیم، چگونگی اندازه‌گیری آن‌ها را تعیین کنیم و چگونه چیزی را قبل از انتشار کاهش دهیم”.

مسئولیت‌پذیری، اخلاق و چشم‌انداز آینده OpenAI

گفتگوی سم آلتمن در TED2025 به جنبه‌های عمیق‌تری از مسئولیت‌پذیری فردی و سازمانی، اخلاقیات در توسعه فناوری، و چگونگی هدایت این تغییر عظیم جهانی پرداخت.

نگاه به سم آلتمن و OpenAI

مجری به دو روایت متضاد در مورد سم آلتمن اشاره کرد: یکی اینکه او یک “دیدگاه‌گرای باورنکردنی” است که “غیرممکن را انجام داده است” و چیزی “بسیار قدرتمندتر از هر چیزی که گوگل انجام داده” را خلق کرده است. روایت دیگر این است که او “راهش را عوض کرده” و از OpenAI (باز) به سمت “ساخت چیزی فوق‌العاده قدرتمند” گرایش پیدا کرده و برخی از افراد کلیدی‌اش را از دست داده است، به طوری که “بعضی‌ها باور دارند به او در این زمینه نمی‌توان اعتماد کرد”.

آلتمن در پاسخ، خود را “شخصیتی پیچیده” توصیف کرد که “به خوبی به یک بعد تقلیل نمی‌یابد”. “احتمالاً برخی از چیزهای خوب درست است و احتمالاً برخی از انتقادات نیز درست است”. او تأکید کرد که “هدف OpenAI این است که AGI را بسازد و آن را برای منافع گسترده بشریت، ایمن توزیع کند”. او معتقد است که “ما در این مسیر کارهای زیادی انجام داده‌ایم”. او اذعان کرد که “تاکتیک‌های ما در طول زمان تغییر کرده است”. وی توضیح داد که در ابتدا “واقعاً نمی‌دانستیم قرار است چه چیزی باشیم” و فکر نمی‌کردند “لازم باشد شرکتی را حول این موضوع بسازیم”. اما “واقعیت‌های آنچه این سیستم‌ها نیاز داشتند از سرمایه” را آموختند. او معتقد است که OpenAI در زمینه “قرار دادن هوش مصنوعی فوق‌العاده توانا با درجه بالایی از ایمنی در دست بسیاری از مردم و دادن ابزارهایی به آن‌ها برای انجام کارهای شگفت‌انگیز، نمره بدی نخواهد گرفت”.

با این حال، او پذیرفت که “ما باید بیشتر متن‌باز باشیم”. او این رویکرد محتاطانه اولیه را “منطقی” دانست، زیرا “ما در مورد تأثیر این سیستم‌ها و چگونگی ایمن‌سازی آن‌ها مطمئن نبودیم”. اما اکنون، “من فکر می‌کنم ما به عنوان یک جهان درک بهتری داریم و زمان آن است که سیستم‌های باز و بسیار توانا را در جهان قرار دهیم”. او حتی پیش‌بینی کرد که اگر سال بعد دوباره دعوت شود، ممکن است به خاطر سوءاستفاده از سیستم‌های متن‌باز مورد انتقاد قرار گیرد، اما تأکید کرد که “در هر کاری که انجام می‌دهیم، مبادله وجود دارد”. او OpenAI را “یک بازیکن در این انقلاب هوش مصنوعی” دانست که “سعی می‌کند بهترین کار را انجام دهد و این فناوری را به شیوه‌ای مسئولانه وارد جهان کند”. او اذعان کرد: “ما قطعاً اشتباهاتی کرده‌ایم و قطعاً در آینده نیز بیشتر خواهیم کرد”. اما در مجموع، “ما بیش از یک دهه است که کاری را که قصد داشتیم انجام دهیم، انجام داده‌ایم” و “پایبندی به مأموریت و آنچه که ما در تلاش برای انجام آن هستیم، بسیار قوی است”.

مجری با اشاره به تمثیل “حلقه قدرت” از ارباب حلقه‌ها، به ادعای ایلان ماسک پرداخت که آلتمن “توسط حلقه قدرت فاسد شده است”. آلتمن در پاسخ به اینکه آیا قدرت او را تغییر داده است، گفت: “به طرز تکان‌دهنده‌ای همانند قبل است”. او توضیح داد که “به هر چیزی می‌توان گام به گام عادت کرد” و اگر او ناگهان از ده سال پیش به امروز منتقل می‌شد، بسیار گیج‌کننده بود، اما “هر چیزی به نوعی به حالت عادی جدید تبدیل می‌شود”.

تناقض آزادی بیان و ایمنی

یک تغییر فلسفی اخیر در رویکرد OpenAI به ایمنی، در زمینه “آسیب‌های گفتاری” (speech harms) در مدل جدید تصویر ساز آن‌ها مشاهده شد. آلتمن گفت که “ما به کاربران آزادی بیشتری در مورد آنچه به طور سنتی آسیب‌های گفتاری تلقی می‌کردیم، داده‌ایم”. قبلاً، محدودیت‌های سخت‌گیرانه‌تری وجود داشت. اما او معتقد است که “بخشی از همسوسازی مدل، دنبال کردن آنچه کاربر یک مدل می‌خواهد آن را انجام دهد، در چارچوب بسیار گسترده‌ای از آنچه جامعه تصمیم می‌گیرد، است”. او مثال‌هایی از تولید “خشونت” یا “تقویت کلیشه‌ها” را زد و گفت: “ما اکنون موضع بسیار بازتری اتخاذ می‌کنیم”. او تصدیق کرد که این موضوع “با آسیب‌های دنیای واقعی تداخل پیدا می‌کند” و “باید خط را در کجا ترسیم کنیم”. اما دلیل این تغییر، “بازخورد جامعه” بوده که “مردم واقعاً نمی‌خواهند مدل‌ها آن‌ها را به روش‌هایی که منطقی نمی‌دانند، سانسور کنند”.

حکمرانی و مشارکت جمعی

در پاسخ به پیشنهاد برگزاری یک “اجلاس” برای تعیین خطوط ایمنی توافق شده جهانی، آلتمن رویکرد متفاوتی را ارائه داد. او گفت: “من بسیار بیشتر علاقه‌مندم به آنچه صدها میلیون کاربر ما به طور کلی می‌خواهند”. او اظهار داشت که “بسیاری از مسائل تاریخی در اجلاس‌های کوچک نخبگان تصمیم‌گیری شده‌اند”، اما “یکی از چیزهای جدید جالب در مورد هوش مصنوعی این است که هوش مصنوعی ما می‌تواند با همه مردم روی زمین صحبت کند و ما می‌توانیم ترجیحات ارزش جمعی (collective value preference) همه را یاد بگیریم، به جای اینکه عده‌ای از افراد که توسط جامعه برگزیده شده‌اند، در یک اتاق بنشینند و این تصمیمات را بگیرند”. او این را “بسیار جالب” خواند و گفت که OpenAI “بیشتر در این مسیر عمل خواهد کرد”.

او معتقد است که هوش مصنوعی می‌تواند به ما “کمک کند عاقل‌تر باشیم، تصمیمات بهتری بگیریم، می‌تواند با ما صحبت کند”. “اگر بگوییم ‘هی، من چیز X را می‌خواهم’، به جای اینکه ‘جمعیت’ آن را بسازند، هوش مصنوعی می‌تواند بگوید ‘هی، کاملاً درک می‌کنم که شما این را می‌خواهید، اگر این چیزی است که در پایان این گفتگو می‌خواهید، شما کنترل دارید و انتخاب می‌کنید، اما آیا آن را از دیدگاه این شخص یا تأثیر آن بر این افراد در نظر گرفته‌اید؟'”. او معتقد است که “هوش مصنوعی می‌تواند به ما کمک کند تا عاقل‌تر باشیم و تصمیمات حکمرانی جمعی بهتری بگیریم”.

چشم‌انداز آینده جهان با هوش مصنوعی

سم آلتمن گفتگوی خود را با ترسیم یک چشم‌انداز آینده‌نگرانه از جهانی که فرزندان ما در آن بزرگ خواهند شد، و نقش هوش مصنوعی در شکل‌دهی به آن به پایان برد.

آینده فرزندان ما در دنیای هوش مصنوعی

آلتمن با یک تمثیل ساده اما قدرتمند شروع کرد: او به یاد آوردن یک ویدیوی قدیمی در یوتیوب از یک کودک نوپا در مطب دکتر، که سعی داشت یک مجله را مانند آی‌پد لمس و بزرگ کند و وقتی موفق نمی‌شد، عصبانی می‌شد. برای آن کودک، مجله “یک آی‌پد خراب” بود، زیرا او هرگز دنیایی را بدون نمایشگرهای لمسی درک نکرده بود. آلتمن این را به آینده فرزندان ما پیوند داد: “امیدوارم فرزندان من هرگز از هوش مصنوعی باهوش‌تر نباشند”. او ادامه داد: “آن‌ها هرگز در دنیایی بزرگ نخواهند شد که در آن محصولات و خدمات به طرز باورنکردنی هوشمند و فوق‌العاده توانا نیستند”. آن‌ها هرگز در دنیایی بزرگ نخواهند شد که در آن “کامپیوترها شما را درک نمی‌کنند و هر آنچه را که می‌توانید تصور کنید، انجام نمی‌دهند”.

آلتمن این آینده را با کلمات زیر توصیف کرد:

  • “جهانی با فراوانی مادی باورنکردنی”.
  • “جهانی که نرخ تغییر در آن به طرز باورنکردنی سریع است و اتفاقات جدید شگفت‌انگیزی در آن رخ می‌دهد”.
  • “جهانی که در آن توانایی فردی، تأثیرگذاری و هر چیز دیگر، به مراتب فراتر از چیزی است که یک شخص امروز می‌تواند انجام دهد”.

او ابراز امیدواری کرد که “فرزندان من و همه فرزندان شما، به ما با نوعی ترحم و نوستالژی نگاه کنند و بگویند ‘آن‌ها زندگی‌های وحشتناکی داشتند، بسیار محدود بودند'”. او این چشم‌انداز را “عالی” نامید.

نقش Sam Altman در این آینده

مجری با اشاره به نقش سم آلتمن در شکل‌دهی به این آینده، گفت که او “برخی از بزرگ‌ترین فرصت‌ها، بزرگ‌ترین چالش‌های اخلاقی، و بزرگ‌ترین تصمیمات تاریخ را در پیش رو خواهد داشت”. او اطمینان داد که “همه اینجا او را تشویق خواهند کرد تا کار درست را انجام دهد”. آلتمن در پاسخ، متواضعانه گفت: “ما تمام تلاش خود را خواهیم کرد”.

این پایان‌بندی نه تنها دیدگاه خوش‌بینانه آلتمن را در مورد آینده‌ای روشن‌تر و توانمندتر با هوش مصنوعی منعکس می‌کند، بلکه بر مسئولیت عظیمی که بر دوش رهبران هوش مصنوعی است، تأکید می‌ورزد. این چشم‌انداز، فراتر از صرفاً فناوری، به معنای تحول در ماهیت وجود بشر و توانایی‌های اوست.

نتیجه‌گیری

گفتگوی سم آلتمن در TED2025، نه تنها به عنوان یک پنجره به جدیدترین دستاوردهای OpenAI، بلکه به عنوان یک نقشه راه برای درک آینده‌ای که هوش مصنوعی در حال ساخت آن است، عمل می‌کند. از قابلیت‌های خیره‌کننده Sora و GPT-4o که مرزهای خلاقیت را جابجا می‌کنند، تا چالش‌های پیچیده مالکیت فکری و مدل‌های اقتصادی نوین، و تا بحث‌های عمیق درباره ایمنی، حکمرانی و تعریف هوش مصنوعی عمومی، آلتمن با صراحت و بینش صحبت کرد.

وی ضمن تأکید بر پتانسیل هوش مصنوعی در تسریع اکتشافات علمی و متحول کردن مهندسی نرم‌افزار، به خطرات بالقوه مانند سوءاستفاده‌های مخرب و پیامدهای هوش عامل‌محور نیز پرداخت. رویکرد OpenAI، بر پایه “چارچوب آمادگی” و “فرآیند تکراری” برای یادگیری ایمنی، نشان‌دهنده تعهد آن‌ها به توسعه مسئولانه است، هرچند که در مسیر با چالش‌ها و انتقاداتی نیز روبرو هستند.

دیدگاه آلتمن در مورد حکمرانی جمعی و ترجیحات ارزش کاربران، به جای تصمیمات “اجلاس‌های نخبگان”، نشان‌دهنده یک رویکرد دموکراتیک‌تر در شکل‌دهی به آینده هوش مصنوعی است. او آینده‌ای را برای فرزندان ما ترسیم می‌کند که در آن هوش مصنوعی نه تنها زندگی را آسان‌تر و پربارتر می‌کند، بلکه توانایی‌های فردی را به سطوح بی‌سابقه‌ای ارتقا می‌دهد.

در نهایت، سخنان سم آلتمن تصویر یک تغییر گریزناپذیر و عظیم را ترسیم می‌کند که در آن هوش مصنوعی نه تنها یک ابزار، بلکه یک نیروی دگرگون‌کننده بنیادی برای بشریت است. این انقلاب، فرصت‌های بی‌شماری را به همراه دارد، اما نیازمند احتیاط، هوشمندی، و همکاری جمعی برای هدایت آن به سمت آینده‌ای امن و پربار است.

 

 

بدون دیدگاه

دیدگاهتان را بنویسید