آریا جوان

آخرين مطالب

از پیشرفت‌‌های هوش مصنوعی در تقلید رفتارهای انسانی باید ترسید؟ فناوری

  بزرگنمايي:

آریا جوان - فناوری‌‌های تازه‌‌ با تقلید مؤثر برخی از رفتارهای انسانی، این پرسش را در اذهان ایجاد کرده که تا چه زمانی قادر خواهیم بود محصولات ماشین را از آثار بشری تشخیص دهیم?

اگر از طرفداران پروپاقرص فناوری‌‌های انقلابی بوده باشید، پس احتمالا می‌‌دانید که تاکنون چندین و چند بار از خطرات مربوط‌‌به پیشرفت خارج‌‌ازکنترل هوش مصنوعی صحبت به میان آمده و از دانشمندانی نظیر استیون هاوکینگ تا سیاستمدارانی چون هنری کیسینجر همگی از آینده‌ای تاریک سخن گفته‌اند که با فرارسیدن « نقطه‌‌ی تکینگی فناوری » برای بشر رقم خواهد خورد. ایده‌‌ای که در پس این پیش‌‌گویی‌‌ها دیده می‌‌شود آن است که با آغاز خلاقیت در سیستم‌های هوش مصنوعی، آن‌‌ها قادر خواهند چیزهای بزرگی خلق کنند که ممکن است برای خود ما کمی ترسناک جلوه کند. برای مثال، یک برنامه‌‌ی هوش مصنوعی که اجازه می‌دهد کاربران بتوانند همراه‌با یوهان سباستیان باخ در دنیای مجازی آهنگ‌‌سازی کنند؛ بدین‌‌صورت که کاربران می‌‌توانند با واردکردن نُت‌‌های خود به برنامه، هارمونی‌‌هایی متناسب به‌‌سبک باخ دریافت کنند. این برنامه توسط گوگل اداره می‌شود و به خاطر نوآوری خارق‌‌العاده و جنبه‌‌ی سرگرمی خود، تحسین زیادی را برانگیخته است. اما در روی دیگر سکه، انتقاداتی را نیز متوجه خود کرده و نگرانی‌ها را در مورد خطرات هوش مصنوعی افزایش داده است. اما آنچه که در واقعیت با آن مواجه هستیم، فراتر از نگرانی در این‌‌باره است که آیا الگوریتم‌ها روزی می‌توانند یک موسیقی یا هنر خلق کنند یا خیر. دراین‌میان، برخی از نگرانی‌‌ها کم‌‌اهمیت‌‌تر جلوه می‌‌کنند، درحالی‌‌که ممکن است واقعا هم این طور نباشد؛ نظیر ملاحظاتی که می‌‌گویند سیستم هوش مصنوعی گوگل درحال شکستن قوانین بنیادین تصنیف موسیقی است. حقیقت آن است که تلاش‌ها درجهت وادار کردن کامپیوترها به تقلید رفتارهای انسانی می‌تواند کمی گیج‌کننده و بالقوه آسیب‌‌رسان باشد.
فناوری‌های جعل هویت
برنامه‌‌ی گوگل با تجزیه‌‌وتحلیل نُت‌‌های موجود در 306 قطعه از آثار هنری باخ توانسته هارمونی پنهان در این ملودی‌‌ها و نت‌ها را کشف و شناسایی کند. از آنجا که باخ در تصنیف‌‌های خود از قوانین سختگیرانه‌ای تبعیت می‌‌کرد، این برنامه توانست به‌‌طور موثری این قوانین را فرا گیرد و اکنون می‌‌تواند آن‌‌ها را درمورد نُت‌‌های ارائه‌‌شده ازسوی کاربران نیز اعمال کند. با اینکه اپلیکیشن باخ به‌‌خودی‌‌خود یک محصول جدید است؛ اما فناوری زیربنایی آن پیش‌‌از‌‌این نیز وجود داشته است. مدت‌‌های مدیدی است که ما الگوریتم‌هایی دراختیار داریم که برای تشخیص الگوها آموزش‌ می‌‌بینند و براساس توابع احتمال تصمیم‌‌گیری می‌‌کنند. برخی از این الگوریتم‌ها به‌‌قدری پیچیده هستند که بسیاری از افراد حتی نمی‌‌توانند درک کنند که روند تصمیم‌گیری یا تولید نتیجه در آن‌‌ها به‌‌کلی چگونه رخ می‌‌دهد. سیستم‌های هوش مصنوعی بی‌‌نقص نیستند؛ بسیاری از آن‌ها به داده‌هایی تکیه دارند که شاخص مناسبی از کل جمعیت نیست یا تحت‌تاثیر سوگیری‌‌های عمدی و تعصبات انسانی قرار دارند. بدتر آنکه حتی به‌‌درستی روشن نیست که درصورت بروز خطاها یا ایجاد مشکلات حادتر ازسوی این نوع سیستم‌‌ها، باید تقصیر را متوجه چه فرد یا گروهی دانست. در حال حاضر، فناوری‌های هوش مصنوعی به اندازه‌‌ای پیشرفت کرده‌‌اند که می‌‌توانند سبک نوشتاری یا گفتاری افراد و حتی حالات چهره آنان را به‌‌خوبی تقلید کنند. این دستاورد چندان هم بد نیست؛ کمااینکه یک هوش مصنوعی نسبتا ساده با قابلیتی نظیر پیش‌‌بینی کلمات پرکاربرد توانست به استیون هاوکینگ کمک کند ارتباط مؤثرتری را با افراد جامعه برقرار کند.


برنامه‌های پیچیده‌‌‌تری که صداهای انسانی را تقلید می‌کنند، می‌‌توانند به افراد دارای معلولیت‌‌های تکلمی کمک کنند؛ اما ازسوی دیگر، می‌توانند برای فریب‌‌دادن شنوندگان نیز به‌‌کار روند. برای مثال، سازندگان یک برنامه‌‌ی تقلید صدا به‌نام Lyrebird، ویدئوی مربوط‌‌به یک مکالمه‌‌ی شبیه‌سازی‌‌شده میان باراک اوباما، دونالد ترامپ و هیلاری کلینتون منتشر کرده‌اند که در نگاه اول بسیار واقعی به نظر می‌‌رسد، درحالی‌‌که چنین مکالمه‌‌ای هرگز روی نداده است. از خوب تا بد
در فوریه‌‌ی 2019، شرکت غیرانتفاعی OpenAI برنامه‌ای رایانه‌‌ای نوشت که قادر به تولید متونی ساختگی است که عملا از متون نوشته‌‌شده توسط انسان قابل‌تشخیص نیست. این برنامه می‌تواند به‌‌راحتی یک سخنرانی به‌‌سبک جان‌‌اف.کندی، دیالوگی از تالکین در ارباب حلقه‌ها یا انشای یک دانش‌آموز درمورد جنگ داخلی آمریکا بنویسد. متون تولیدشده توسط نرم‌افزار OpenAI به‌گونه‌ای واقعی و اغواکننده بوده است که شرکت تصمیم گرفته‌ خود برنامه را در اختیار عموم قرار ندهد. تکنولوژی‌های مشابهی نیز وجود دارند که می‌توانند عکس‌ها و فیلم‌ها را با کیفیتی مثال‌‌زدنی شبیه‌سازی کنند. برای نمونه، در اوایل سال 2018، جوردت پیل ، فیلمساز آمریکایی تصمیم گرفت فیلمی بسازد که در آن اوباما، رئیس‌جمهور سابق ایالات‌متحده آمریکا سخنانی را درمورد خطرات هوش مصنوعی ایراد می‌‌کند و در آن اذعان می‌‌کند آنچه که در این فیلم گفته می‌‌شود، اوباما واقعا به‌‌زبان نیاورده است. در اوایل سال 2019، نیز تصاویری جعلی از پیکر عریان یکی از نمایندگان جمهوری‌‌خواه ایالات متحده جنجال آفرید. در ادامه نیز انتظار می‌‌رود که ویدوئوهای ساختگی که با فناوری deepfakes شناخته می‌‌شوند، به‌طور فزاینده‌ای در فعالیت‌های انتخاباتی مورداستفاده قرار گیرند. کار تا آنجا پیش رفته که برخی از اعضای کنگره شروع به بررسی این مسئله در آستانه‌‌ی انتخابات 2020 کرده‌اند. وزارت دفاع ایالات‌متحده نیز ارائه‌‌ی آموزش‌‌هایی درمورد نحوه‌‌ی تشخیص ویدئو و نوارهای صوتی جعلی را در دستور کار قرار داده است. سازمان‌های خبری مانند رویترز شروع به آموزش روزنامه‌نگاران برای کمک به شناسایی دیپ‌‌فیکس کرده‌اند. اما به‌‌نظر می‌‌آید هنوز هم نگرانی‌‌های مهمی وجود دارد: با درنظرگرفتن سرعت بی‌‌حدوحصر پیشرفت این فناوری، ممکن است فرصت کافی را برای فراگیری این شیوه‌‌های تشخیصی در اختیار بسیاری از کاربران نباشد. با درنظرگرفتن سرعت پیشرفت فناوری، ممکن است فرصت کافی برای فراگیری شیوه‌‌های تشخیصی در اختیار کاربران نباشد
برای مثال، همین‌‌طور که این روزها مردم کم‌کم از وجود دیپ‌‌فیکس اطلاع می‌یابند، هوش مصنوعی نیز بیکار ننشسته و درحال توسعه‌‌ی فناوری‌‌های جدیدی برای فریب‌‌دادن مردم است. همین حالا نیز برنامه‌هایی وجود دارند که می‌توانند چهره‌‌های تقلبی و اثر انگشت دیجیتالی جعلی ایجاد کنند که به‌‌طرز مؤثری می‌‌تواند در جعل هویت افراد در بخش‌‌هایی نظیر سوابق سازمانی یا دولتی مورد استفاده واقع شود. ماشین‌ها به یادگیری ادامه می‌دهند
در حال حاضر، هنوز حجم اشتباهات بالقوه در این فناوری‌‌ها آن‌‌قدر است که مردم بتوانند این محتواهای دیجیتالی جعلی را تشخیص دهند. همان‌‌طور که آهنگساز ماشینی باخ گاهی اشتباهاتی مرتکب می‌‌شود که یک فرد متخصص می‌‌تواند آن‌ها را تشخیص دهد، برنامه‌‌ی تولید متن OpenAI نیز گاهی عباراتی مانند «آتش‌سوزی در آب» را خلق می‌‌کند که هیچ مفهومی را نمی‌‌رساند.
مقاله‌های مرتبط:
بازتولید دروغ؛ چگونه فناوری تاریخ ما را تحریف خواهد کرد؟ سه تهدید جدی فناوری‌های مبتنی بر هوش مصنوعی
بااین‌‌حال، توسعه‌‌دهندگان روی آثار خود کار می‌کنند و این اشتباه‌‌ها روز‌‌به‌‌روز نادرتر خواهند شد. فناوری‌های هوش مصنوعی رشد خواهند کرد و یاد خواهند گرفت. عملکرد بهبود یافته‌‌ی این سیستم‌‌ها، ظرفیت ایجاد بسیاری از مزایای اجتماعی از جمله مراقبت‌های بهداشتی بهتر را در پی دارد و هوش مصنوعی می‌‌تواند به فرایند دموکراتیزه‌‌کردن خدمات پزشکی کمک شایانی کند. فرصت‌‌دادن به پژوهشگران و شرکت‌ها برای کشف توانمندی‌‌های مثبت سیستم‌های هوش مصنوعی، به‌‌معنای باز شدن عرصه برای توسعه‌‌ی روش‌های پیشرفته‌تر فریب و دیگر مشکلات اجتماعی نیز خواهد بود. از آن سو، اعمال محدودیت‌‌های شدیدتر روی تحقیقات هوش مصنوعی می‌تواند چنین پیشرفت‌‌هایی را به‌‌کلی مهار کند. آن‌‌گونه که تاریخ فناوری به ما می‌‌گوید، فرصت‌‌دادن به فناوری‌‌های سودمند برای رشد و شکوفایی همراه مخاطراتی به‌‌همراه داشته و خواهد داشت. بااین‌‌حال، هنوز ما کاملا نمی‌‌دانیم که هوش مصنوعی قرار است از چه روش‌‌های دیگری ما را تهدید کند؛ شاید این سوءاستفاده تنها محدود به خلق آثار هنری غیراصیل و غیردقیق باشد یا خلق محتوایی آن‌‌قدر متقاعدکننده که میلیون‌‌ها نفر را در سراسر جهان فریب دهد.

لینک کوتاه:
https://www.aryajavan.ir/Fa/News/121057/

نظرات شما

ارسال دیدگاه

Protected by FormShield
مخاطبان عزیز به اطلاع می رساند: از این پس با های لایت کردن هر واژه ای در متن خبر می توانید از امکان جستجوی آن عبارت یا واژه در ویکی پدیا و نیز آرشیو این پایگاه بهره مند شوید. این امکان برای اولین بار در پایگاه های خبری - تحلیلی گروه رسانه ای آریا برای مخاطبان عزیز ارائه می شود. امیدواریم این تحول نو در جهت دانش افزایی خوانندگان مفید باشد.

ساير مطالب

آلگری: می‌خواستم خودم را هم تعویض کنم!

گلزنی منتظرمحمد مقابل تیم ملی امید تاجیکستان

کارشناسی داوری فولاد - مس رفسنجان

کارشناسی داوری دیدار استقلال - شمس آذر

حمله هواداران عصبانی تراکتور به مینی ون حامل بازیکنان در فرودگاه تبریز

چرا جیمی کرگر به پیروزی و صعود بایرن مونیخ مقابل آرسنال باور داشت؟

رزرو بلیت پاریس برای 4 کشتی‌گیر و ابهام در 57 و 86 کیلو

یوونتوس به زحمت از شکست گریخت

کارشناسی داوری سپاهان - ذوب آهن

کارشناسی داوری پیکان - هوادار

پیشنهاد رسمی امیر قلعه نویی و فدراسیون فوتبال به دست افشین قطبی رسید

کارشناسی داوری صنعت نفت - پرسپولیس

کارشناسی داوری گل گهر - استقلال خوزستان

کارشناسی داوری نساجی - تراکتور

صحبت های سیدعلی میرغفاری رئیس صدور مجوز حرفه ای استقلال

عذرخواهی کاپیتان استقلال بخاطر 10 دقیقه پایانی

واکنش وزارت خارجه ایران به اقدام آمریکا برای تمدید تحریم نفتی ونزوئلا

گلکسی زد فلیپ 6 با پردازنده پرچمدار قدرت‌نمایی کرد

گزارش Surfshark: از سال 2004 تاکنون، میلیاردها حساب کاربری هک شده‌اند

اپل پیام‌رسان‌های واتساپ و تلگرام را از اپ استور چین حذف کرد

عکس های کاملا به موقع

گناه مخاطب چی بود فرشته؟

بیرانوند فردا گچ دستش را باز می کند

معاون پرسپولیس: اعلام کردند VAR منتفی شد

علت توقف مذاکره تراکتور با بردیف از زبان نصیرزاده

نکته‌نگران کننده استقلال؛ وزن‌تعویض‌ها بالا نیست

کارشناسی داوری مس رفسنجان - پیکان

کارشناسی داوری شمس آذر - فولاد

کارشناسی داوری استقلال خوزستان - صنعت نفت

پلی به گذشته؛ برتری 2-1 بایرن مونیخ مقابل منچستریونایتد

بخش‌هایی از داوری گلاره ناظمی در اولین قضاوت خود به عنوان داور اول در جام ملت های فوتسال آسیا

گل زیبای دوشان ولاهوویچ به کالیاری از روی ضربه آزاد

آخرین خبر از واگذاری مالکیت باشگاه پرسپولیس

رسانه صهیونیستی: نتانیاهو یک آدم حراف و طبل تو خالی از کار درآمد

تصویب چهاردهمین بسته تحریمی اتحادیه اروپا علیه روسیه

اگزینوس 2500 احتمالاً عملکرد بهینه‌تر نسبت به اسنپدراگون 8 نسل 4 خواهد داشت

زلزله تایوان نزدیک به 100 میلیون دلار به TSMC خسارت وارد کرده است

رونمایی اسپیکر نمایشگردار اپل محتمل‌تر شد

ترفند عجیب گراز برای فرار از دست سگ‌های شکارچی!

خیلی شانس آورد از یک تصادف مرگبار نجات پیدا کرد!

دابسمش علی لهراسبی برای مخاطبانش

سلمان: در باز است، باز پرنده است، پس در پرنده است!

وقتی نمیتونی دو دقیقه ساکت بشینی

فامیل دور و بچه‌ش و ببعی قاچاقی میخوان برن ترکیه

بلایی که مهسا طهماسبی سر گربه های محله آورده

عمو کاووس: مرگ حقه، میکروب بهانه است

سرپرست استقلال: مشکل تیم ما مالی است

کری ستاره بارسا برای رئال؛ با 200 درصد توان بازی می کنیم

رضاوند: بازی‌ها با VAR برگزار شود تا حق تیمی‌ خورده نشود

واکنش بادامکی به استفاده از VAR در هفته‌های پایانی