اپرا وینفری در برنامه ویژه ای با عنوان “هوش مصنوعی و آینده ما” در حضور بسیاری از چهره های برجسته به بررسی تاثیر هوش مصنوعی بر آینده بشریت پرداخت.
اپرا وینفری شامگاه پنجشنبه در برنامه ویژه ای با عنوان «هوش مصنوعی و آینده ما» با حضور تنی چند از چهره های سرشناس حوزه فناوری و امنیت به تحلیل تاثیرات هوش مصنوعی بر آینده بشریت پرداخت. این برنامه شامل گفتگو با سام آلتمن، مدیر عامل OpenAI، مارکس براونلی، تأثیرگذار فناوری، کریستوفر رای، مدیر فعلی FBI و بیل گیتس، بنیانگذار مایکروسافت بود. برنامه فوق به دنبال بررسی مشکلات و فرصت های هوش مصنوعی در دنیای امروز بود و در نهایت به سوالات اصلی در مورد آینده ما با این فناوری اشاره کرد.
علایق اولیه؛ هوش مصنوعی از کنترل خارج شده است؟
اپرا وینفری در ابتدای این برنامه اظهار داشت که هوش مصنوعی به سرعت در حال گسترش است و این فناوری راه خود را برای بدتر یا بهتر شدن زندگی انسان ها باز کرده است. او گفت:
هوش مصنوعی هنوز خارج از کنترل و درک ما است. ما به شما اعتماد داریم که با آن زندگی کنید. این فناوری می تواند متحد و رقیب ما باشد.
اپرا به تردیدهایی که در مورد توسعه هوش مصنوعی وجود دارد اشاره کرد و تاکید کرد که انسان ها موجوداتی بسیار سازگار هستند. اما خطرات این فناوری نیز بسیار زیاد است.
سام آلتمن؛ وعده های بزرگ و تردیدهای کارشناسی
سام آلتمن، مدیر عامل OpenAI و اولین مهمان برنامه، در مورد قابلیت های هوش مصنوعی صحبت کرد و ادعا کرد که سیستم های موجود می توانند مفاهیم را از داده هایی که بر روی آنها آموزش دیده اند یاد بگیرند.
آلتمن توضیح داد که مدل های زبان دائماً با مشاهده هزاران کلمه به ترتیب کلمه بعدی را یاد می گیرند و در این فرآیند درک عمیق تری از زبان و مفاهیم به دست می آورند.
وی در این باره گفت:
ما هزاران کلمه را به سیستم خود نشان می دهیم و از آنها می خواهیم که کلمه بعدی را پیش بینی کنند. به این ترتیب، سیستم ها شروع به یادگیری مفاهیم عمیق تری از زبان می کنند و به آنها اجازه می دهد نه تنها جملات بسازند. اما برای رسیدن به درک اساسی از معانی و مفاهیم نهفته در پشت کلمات.
آلتمن افزود: آینده هوش مصنوعی بسیار امیدوارکننده است و امکانات زیادی برای ایجاد تغییرات مثبت در زمینه های مختلف از جمله بهداشت، آموزش و اقتصاد دارد. وی افزود که این فناوری هنوز به بلوغ کامل نرسیده و به طور کامل درک نشده است. به همین دلیل وی بر اهمیت وضع قوانین و مقررات برای کنترل توسعه هوش مصنوعی تاکید کرد و از تلاش خود برای جلب حمایت دولت در این زمینه گفت.
او گفت:
یکی از کارهای مهمی که در حال انجام است، تلاش برای جلب توجه دولت ها به نحوه آزمایش ایمن سیستم های هوش مصنوعی است. همانطور که صنایع هوانوردی یا داروسازی قوانین سختگیرانه ای دارند، ما باید اطمینان حاصل کنیم که هوش مصنوعی به درستی آزمایش و کنترل شده است.
این اظهارات با تردید برخی کارشناسان همراه بود. آنها معتقدند که سیستمهای هوش مصنوعی مانند ChatGPT صرفاً ماشینهای آماری هستند که فقط الگوهای داده را شناسایی میکنند و هیچ هدفی در پشت فعالیتهای آنها وجود ندارد. به طور کلی، آنها فقط کلمات ممکن را بر اساس داده های قبلی حدس می زنند.
آلتمن همچنین تاکید کرد که مقررات در این زمینه نباید منجر به سرکوب نوآوری شود. او مخالفت شرکتش با لایحه ایمنی هوش مصنوعی کالیفرنیا معروف به SB 1047 را به شرح زیر توضیح داد:
این لایحه علیرغم بهترین نیت خود، می تواند نوآوری را با محدودیت های فراوانش خفه کند و ما نمی خواهیم این اتفاق بیفتد. در عین حال، ما معتقدیم که باید مکانیسم های مناسبی برای نظارت و کنترل توسعه هوش مصنوعی وجود داشته باشد.
آلتمن همچنین به طور خاص در مورد خطرات هوش مصنوعی در زمینه هایی مانند ایجاد دیپ فیک و اطلاعات نادرست هشدار داد. وی با بیان اینکه هوش مصنوعی می تواند به ابزاری برای سوء استفاده تبدیل شود، از مردم خواست تا با احتیاط از آن استفاده کنند.
در بخشی دیگر از مصاحبه، اپرا وینفری از آلتمن پرسید که چرا مردم باید به او و تیمش اعتماد کنند. آلتمن با صراحت پاسخ داد:
مردم نباید به تنهایی به من یا شخص دیگری اعتماد کنند. ما باید سیستمی از مقررات و نظارت مناسب ایجاد کنیم که تضمین کند هوش مصنوعی به طور مسئولانه توسعه یافته و به نفع همه انسان ها باشد.
وی در پاسخ به این سوال که آیا او قوی ترین و خطرناک ترین مرد دنیاست؟
این عنوان برای من خیلی عجیب است. من خودم را در چنین موقعیتی نمی بینم. اما من احساس مسئولیت بزرگی برای هدایت هوش مصنوعی در جهت مثبت دارم.
تهدیدات Deepfake; از آگاهی تا تهدید
یکی دیگر از موضوعات مهم در این برنامه موضوع دیپ فیک و تهدیدات آن است. دیپ فیک ها و ویدیوهای جعلی تولید شده توسط هوش مصنوعی به سرعت در حال پیشرفت هستند و به راحتی می توانند مردم را فریب دهند. برای نشان دادن این موضوع، مارکس-براونلی نمونه هایی از ویدئوهای تولید شده با استفاده از فناوری دیپ فیک را نشان داد. او توضیح داد که چگونه این ویدئوها در طول زمان دقیق تر و واقعی تر می شوند.
برای نشان دادن قدرت و پیشرفت رسانه های مصنوعی، براونلی نمونه هایی از ویدیوهای تولید شده توسط شرکت OpenAI AI Sora را با ویدیوهای تولید شده توسط سایر سیستم های هوش مصنوعی مقایسه کرد. نتایج به وضوح سرعت توسعه این فناوری را نشان داد. بنابراین مثال سورا بسیار پیشرفته بود.
براونلی درباره فیلم سورا گفت:
اکنون، همچنان میتوانید به قسمتهای مختلف ویدیو از نزدیک نگاه کنید و متوجه شوید که چیزی خاموش است.
با این حال، اپرا وینفری نظر دیگری داشت و اظهار داشت که معتقد است این ویدئو واقعی به نظر می رسد. در ادامه ارائه Deepfake، کریستوفر رای، مدیر FBI، اولین برخورد خود با این فناوری را توضیح داد. او گفت:
من در اتاق کنفرانس بودم که برخی از اعضای FBI به ما نشان دادند که چگونه دیپ فیک های تقویت شده با هوش مصنوعی ایجاد کنیم. آنها یک ویدیو از من ساختند که چیزهایی را می گویم که هرگز نگفتم و نخواهم گفت.
ری همچنین در مورد افزایش قابل توجه موارد اخاذی با استفاده از هوش مصنوعی صحبت کرد. بر اساس دادههای شرکت امنیت سایبری ESET، موارد جنایات جنسی در سالهای 2022 و 2023 178 درصد افزایش یافته است و بخشی از این افزایش به دلیل استفاده از فناوری هوش مصنوعی است.
وی همچنین به موضوع اطلاعات نادرست در آستانه انتخابات ریاست جمهوری آمریکا اشاره کرد. وی با تاکید بر اینکه اکنون زمان وحشت نیست، از مردم آمریکا خواست در استفاده از هوش مصنوعی دقت و دقت بیشتری داشته باشند. وی هشدار داد که افراد سودجو می توانند از این فناوری علیه همه ما استفاده کنند.
بر اساس نظرسنجی Statista، تا پایان سال 2023، بیش از یک سوم آمریکایی ها اطلاعات گمراه کننده یا مشکوک به اطلاعات نادرست در مورد موضوعات مهم را مشاهده کردند. امسال، تصاویر گمراهکنندهای که توسط هوش مصنوعی از شخصیتهای سیاسی مانند کامالا هریس، معاون رئیسجمهور و دونالد ترامپ، رئیسجمهور سابق آمریکا تولید شده بود، توسط میلیونها نفر در شبکههای اجتماعی مانند X دیده شد.
بیل گیتس: هوش مصنوعی ابزاری برای بهبود زندگی انسان است
در قسمت پایانی برنامه، اپرا وینفری با بیل گیتس، بنیانگذار مایکروسافت صحبت کرد. وی گفت: این فناوری می تواند دنیای پزشکی و آموزش را به طور اساسی تغییر دهد و نقش موثری در بهبود زندگی مردم ایفا کند. گیتس معتقد است که هوش مصنوعی می تواند به عنوان یک دستیار هوشمند در بسیاری از زمینه ها عمل کند و بار کاری انسان ها را کاهش دهد.
وی درباره استفاده از هوش مصنوعی در حوزه پزشکی گفت:
هوش مصنوعی می تواند در معاینات پزشکی حضور داشته باشد و نقش یک دستیار هوشمند را ایفا کند. این سیستم میتواند به پزشکیان در تشخیص بیماریها، ارائه توصیههایی برای داروها و درمان، و حتی ایجاد متنهای مفصل از مکالمات پزشک و بیمار کمک کند. بنابراین، پزشکیان می توانند بیشتر بر تعامل با بیماران و استفاده از فناوری برای بهبود کارایی و دقت آنها تمرکز کنند.
وی همچنین به نقش هوش مصنوعی در آموزش اشاره کرد و گفت:
این فناوری می تواند به عنوان یک معلم مجازی عمل کند و به دانش آموزان در یادگیری بهتر در هر سطح از دانش کمک کند. هوش مصنوعی می تواند دائما در دسترس باشد و دانش آموزان را در فرآیند یادگیری همراهی کند.
با وجود خوشبینی، گیتس اذعان کرد که هوش مصنوعی نیز میتواند مشکلاتی ایجاد کند. او به ویژه در مورد تعصبات نژادی و اجتماعی که ممکن است در داده های آموزشی سیستم های هوش مصنوعی وجود داشته باشد، هشدار داد. گیتس به مطالعاتی اشاره کرد که نشان میدهد سیستمهای تشخیص گفتار از شرکتهای پیشرو در فناوری بیشتر احتمال دارد که صدای سیاهپوستان را اشتباه شناسایی کنند. وی تاکید کرد که باید مراقب باشیم تا هوش مصنوعی عادلانه و بدون تعصب توسعه یابد.
گیتس در پایان تاکید کرد که هوش مصنوعی با همه قابلیت های مثبت و منفی خود به بخشی جدایی ناپذیر از آینده بشر تبدیل خواهد شد و باید با احتیاط و مسئولیت پذیری رفتار کرد. او گفت:
ما در زمان های بسیار جالبی زندگی می کنیم. هوش مصنوعی می تواند به ابزاری قدرتمند برای بهبود زندگی همه مردم تبدیل شود. اما باید با احتیاط و آگاهی از مشکلات و مخاطرات آن جلو برویم.
parseek به نقل از یستا
مطالب مرتبط
افغانستان و ایران تفاهمنامه اتصال شبکههای اینترنت امضا کردند
آیا مدارس اصفهان فردا چهارشنبه (۵ دی ۱۴۰۳) تعطیل است؟
خروج نیروهای فرانسوی از جمهوری چاد (یکم دی ۱۴۰۳)