هوش مصنوعی مفید اما خطرناک

ترس اجتماعی از هوش مصنوعی
سوالاتی در مورد اینکه چه کسی هوش مصنوعی را توسعه میدهد و برای چه اهدافی، درک نکات منفی بالقوه آن را ضروریتر میکند. در این مقاله از سایت مدیر پوینت مروری بر خطرات احتمالی هوش مصنوعی می اندازیم و چگونگی مدیریت خطرات آن را بررسی می کنیم.
جهان فناوری مدت هاست در مورد خطرات ناشی از هوش مصنوعی هشدار داده است. اتوماسیون مشاغل، توسعه و نشر اخبار جعلی و مسابقه تسلیحاتی خطرناک تسلیحات مجهز به هوش مصنوعی به عنوان برخی از بزرگترین خطرات ناشی از هوش مصنوعی ذکر شده است.
شفاف نبودن و قابلیت توضیح هوش مصنوعی
درک مدلهای هوش مصنوعی و یادگیری عمیق، حتی برای کسانی که مستقیماً با این فناوری کار میکنند، دشوار است. این مساله منجر به عدم شفافیت در مورد چگونگی و چرایی نتیجهگیری هوش مصنوعی میشود و توضیح قابل قبولی در مورد اینکه الگوریتمهای هوش مصنوعی از چه دادههایی استفاده میکنند یا اینکه چرا ممکن است تصمیمهای بد خواهانه یا ناایمن بگیرند، داده نمیشود.
بیکار شدن افراد در اثر هوش مصنوعی
اتوماسیون شغلی مبتنی بر هوش مصنوعی تولید یک دلواپسی شده است زیرا این فناوری در صنایعی مانند بازاریابی، تولید و مراقبت های بهداشتی فعال شده است. به گفته مککینزی، تا سال 2030، سی درصد خدماتی را که در حال حاضر در اقتصاد امریکا انجام میشود، تشکیل میدهند، با کمک هوش مصنوعی میتوانند خودکار شوند و این یعنی بیکاری.
در امریکا با توجه به اینکه کارمندان سیاهپوست و اسپانیاییتبار به ویژه در برابر تغییرات آسیبپذیر هستند.
گلدمن ساکس حتی می گوید که 300 میلیون شغل تمام وقت ممکن است به دلیل اتوماسیون هوش مصنوعی از بین برود.
همانطور که رباتهای هوش مصنوعی باهوشتر و ماهرتر میشوندبه همان مقدار همان وظایف به انسانهای کمتری نیاز دارند. و در حالی که تخمین زده می شود که هوش مصنوعی تا سال 2025 نود و هفت میلیون شغل جدید ایجاد کند، بسیاری از کارمندان مهارت های مورد نیاز برای این نقش های فنی را نخواهند داشت و اگر شرکت ها سطح تحصص نیروی کار خود را ارتقاء ندهند، ممکن است عقب بمانند.
«اگر در مکدونالدز همبرگر میچرخانید و فرایندهای مبتنی بر اتوماسیون بیشترشود، آیا یکی از این مشاغل جدید برای شما مناسب خواهد بود؟
فورد میگوید: این احتمال وجود دارد که شغل جدید به آموزش یا حتی استعدادهای درونی – مهارتهای بین فردی یا خلاقیت قوی – نیاز داشته باشد و ممکن است شما انرا نداشته باشید! زیرا اینها چیزهایی هستند که، حداقل تا کنون، کامپیوترها هم در آنها خیلی خوب نیستند.”
حتی مشاغلی که به مدارک تحصیلات تکمیلی و آموزش اضافی پس از کالج نیاز دارند، از جابجایی هوش مصنوعی در امان نیستند.
هوش مصنوعی در تقابل با پزشکی ،حسابداری ، حقوق
همانطور که کریس مسینا، استراتژیست فناوری اشاره کرده است، مشاغلی مانند قانون و حسابداری برای غلبه بر هوش مصنوعی آماده شده اند. مسینا گفت در واقع ممکن است برخی از آنها از بین بروند. هوش مصنوعی در حال حاضر تأثیر قابل توجهی بر پزشکی دارد. مسینا گفت که قانون و حسابداری در رتبه های بعدی قرار دارند.
او در رابطه با حوزه حقوقی گفت: «به پیچیدگی قراردادها فکر کنید، و واقعاً عمیقا فکر کنید و درک کنید که برای ایجاد یک ساختار قرارداد تجاری خوب به چه نکاتی باید پرداخته شود.
بسیاری از وکلا اطلاعات زیادی را مطالعه می کنند – صدها یا هزاران صفحه داده و اسناد.
هوش مصنوعی این توانایی را دارد که بهترین قرارداد ممکن را برای نتیجه ای که می خواهید به دست آورید و به طور جامع ارائه دهد، این مساله یعنی احتمال دارد جایگزین بسیاری از وکلای شرکت شود.
دستکاری اجتماعی از طریق الگوریتم های هوش مصنوعی
دستکاری اجتماعی نیز به عنوان یک خطر هوش مصنوعی است. این ترس به واقعیت تبدیل شده است، زیرا سیاستمداران برای ترویج دیدگاههای خود به پلتفرمها متکی هستند، به عنوان مثال فردیناند مارکوس جونیور، ارتش ترول TikTok را برای جلب آرای فیلیپینیهای جوان در جریان انتخابات فیلیپین در سال 2022 به کارگرفت.
TikTok، که تنها نمونهای از سکوی رسانههای اجتماعی است که بر الگوریتمهای هوش مصنوعی متکی است، فید کاربر را با محتوای مرتبط با رسانههای قبلی که در این سکو مشاهده کردهاند، پر میکند.
انتقاد از برنامه این فرآیند و شکست الگوریتم در فیلتر کردن محتوای مضر و نادرست را هدف قرار میدهد و نگرانیهایی را در مورد توانایی TikTok برای محافظت از کاربرانش در برابر اطلاعات گمراهکننده ایجاد میکند.سوال اینجاست ایا فقط متهمTIK TOK است و دیگر سکوهای شبکه اجتماعی پاک هستند برای پاسخ به این پرسش، به اخبار شکایات از سکوهای شبکه های اجتماعی در جهان نگاه کنید.
رسانهها و اخبار آنلاین با توجه به تصاویر و ویدیوهای تولید شده توسط هوش مصنوعی، تغییر صداهای هوش مصنوعی و همچنین دیپفیکهایی که در حوزههای سیاسی و اجتماعی زیاد شده اند، حتی تیرهتر از گذشته.
این فناوریها ایجاد عکسها، فیلمها، کلیپهای صوتی واقعی یا جایگزینی تصویر یک چهره با چهره دیگر در یک تصویر یا ویدیوی موجود را آسان میکنند. در نتیجه، کاربران بد روشهای جدیدی برای به اشتراک گذاشتن اطلاعات نادرست و تبلیغات منفی دارند و قادر هستند یک سناریوی کابوس ایجاد کنند که در آن تشخیص اخبار معتبر و ناقص تقریبا غیرممکن است.
فورد : «هیچکس نمی داند چه چیزی واقعی است و چه چیزی نیست. بنابراین به وضعی خواهیم رسید که به معنای واقعی کلمه نمیتوانید ختی به چشمها و گوشهای خود اعتماد کنید.
شما نمی توانید به آنچه از نظر تاریخی ممکن است بهترین شواهد باشد تکیه کنید و این یک مسئله کوچکی نخواهد بود.
نظارت اجتماعی با فناوری هوش مصنوعی
در ادارات پلیس امریکا از الگوریتم های خاص برای پیش بینی محل وقوع حوادث مورد نظر پلیس استفاده می کنند. مشکل این است که این الگوریتمها تحتتاثیر حجم دستگیری ها قرار میگیرند، که بهطور نامعقولی بر جوامع سیاهپوست تأثیر میگذارد. سوالی که مطرح میگردد این است که آیا مقررات و قوانین می توانند در برابر رفتارهای هوش مصنوعی نظم مورد نظر را برقرار کنند یا خیر
عدم حفظ حریم خصوصی داده ها با استفاده از ابزارهای هوش مصنوعی
اگر با یک چت ربات هوش مصنوعی کارکرده باشید یا یک فیلتر چهره هوش مصنوعی را به صورت آنلاین امتحان کرده باشید، داده های شما جمع آوری می شود – اما به کجا می رود و چگونه از آن استفاده می شود؟
تعصبات ناشی از هوش مصنوعی
اشکال مختلف یکجانبه گرایی هوش مصنوعی نیز مضر هستند. اولگا روساکوفسکی، استاد علوم کامپیوتر پرینستون، در گفتگو با نیویورک تایمز گفت که تعصب هوش مصنوعی فراتر از جنسیت و نژاد است. علاوه بر داده ها و سوگیری الگوریتمی (که دومی می تواند اولی را “تقویت” کند)، هوش مصنوعی توسط انسان ها توسعه یافته است – و انسان ها ذاتاً جانبدرانه عمل می کنند.
روساکوفسکی گفت: محققان عمدتاً مردانی هستند که از جمعیتهای نژادی خاص میآیند، در مناطق اجتماعی-اقتصادی بالا بزرگ شدهاند، در درجه اول افراد بدون معلولیت. ما جمعیت نسبتاً همگنی هستیم، بنابراین فکر کردن به طور گسترده در مورد مسائل جهانی یک چالش است.
آب مصرفی توسط هوش مصنوعی
تجارب محدود سازندگان هوش مصنوعی ممکن است توضیح دهد که چرا هوش مصنوعی تشخیص گفتار اغلب لهجهها و لهجههای خاصی را درک نمیکند، یا چرا شرکتها عواقب یک ربات چت را که جعل هویت چهرههای بدنام در تاریخ بشر است، در نظر نمیگیرند. توسعهدهندگان و کسبوکارها باید دقت بیشتری به خرج دهند تا از بازآفرینی جانب دارانه و پیشداوریهای که اقلیتها را در معرض خطر قرار میدهد، اجتناب کنند.
نابرابری اجتماعی-اقتصادی در نتیجه هوش مصنوعی
اگر شرکتها از جانبداری ذاتی موجود در الگوریتمهای هوش مصنوعی دوری کنند، ممکن است ” دی ای ای” به مفهوم تنوع، برابری و شمول خود را از طریق استخدام مبتنی بر هوش مصنوعی کنار بگذارند ، انگاه هوش مصنوعی برای ایشان خطر ناک عمل میکند.
این فکر که هوش مصنوعی میتواند ویژگیهای یک نامزد را از طریق تجزیه و تحلیلهای چهره و صدا اندازهگیری کند، همچنان با تعصبات نژادی آلوده است و همان شیوههای استخدام تبعیضآمیز را بازتولیدمی کند.
گسترش نابرابری اجتماعی-اقتصادی ناشی از از دست دادن شغل ناشی از هوش مصنوعی یکی دیگر از دلایل نگرانی است که جهت گیری های طبقاتی در مورد نحوه به کارگیری هوش مصنوعی رانمایان می سازد.
ممکن است کارگران یقه آبی که کارهای دستی و تکراری بیشتری انجام می دهند، به دلیل اتوماسیون، کاهش دستمزدشان را تا 70 درصد تجربه کرده اند. در همین حال محتمل است کارگران یقه سفید دست نخورده باقی مانده و حتی برخی از آنها از دستمزد بالاتری برخوردار شوند.
ادعاهای گسترده مبنی بر اینکه هوش مصنوعی به نوعی بر مرزهای اجتماعی غلبه کرده یا مشاغل بیشتری ایجاد کرده است، نمی تواند تصویر درستی از اثرات آن باشد.
در نظر گرفتن تفاوت ها بر اساس نژاد، طبقه و سایر دسته های اجتماعی بسیار مهم است. در غیر این صورت، تشخیص اینکه هوش مصنوعی و اتوماسیون چگونه به ضرر افراد و گروههای خاص به نفع دیگران است، دشوارتر میشود.
تضعیف اخلاق به دلیل هوش مصنوعی
همراه با فنآوران، روزنامهنگاران و شخصیتهای سیاسی، حتی رهبران مذهبی نیز زنگ خطرات احتمالی اجتماعی-اقتصادی هوش مصنوعی را به صدا در میآورند.
پاپ فرانسیس در یک نشست واتیکان در سال 2019 با عنوان “خیر مشترک در عصر دیجیتال” نسبت به توانایی هوش مصنوعی برای “انتشار عقاید متعصبانه و داده های نادرست” هشدار داد و بر عواقب گسترده اجازه توسعه این فناوری بدون نظارت یا محدودیت مناسب تاکید کرد و البته این تبعیضات بر علیه همه در همه جا مطرح بوده و اینگونه نیست که یک فرهنگ خاص در خطر عملکرد بد هوش مصنوعی قرارگرفته باشد.
پاپ میگوید«اگر بهاصطلاح پیشرفتهای تکنولوژیک بشر به دشمن خیر عمومی تبدیل شود، این امر منجر به یک پسرفت تاسفبار به نوعی بربریت میشود که توسط قانون قویترین دیکته شده است.»
ظهور سریع ابزارهای مولد هوش مصنوعی مانند ChatGPT و Bard به این نگرانی ها بیشتر می بخشد. بسیاری از کاربران از این فناوری برای بیرون آمدن از تکالیف نوشتاری استفاده کرده اند که یکپارچگی و خلاقیت را تهدید می کند.
سلاح های خودگردان که توسط هوش مصنوعی کار می کنند
همانطور که اغلب اتفاق می افتد، پیشرفت های تکنولوژیک برای اهداف جنگی مهار شده است. وقتی صحبت از هوش مصنوعی به میان میآید، بسیاری عقیده دارند تا قبل از اینکه خیلی دیر شود کاری در مورد آن انجام دهند: در همین رابطه در نامهای سرگشاده در سال 2016، بیش از 30000 نفر، از جمله محققان هوش مصنوعی و روباتیک، از سرمایهگذاری در سلاحهای خودران با سوخت هوش مصنوعی هشدار دادند.
آنها نوشتند: «سوال کلیدی برای بشریت امروز این است که آیا باید یک مسابقه تسلیحاتی جهانی هوش مصنوعی را آغاز کرد یا از شروع آن جلوگیری کرد. اگر هر قدرت نظامی بزرگی با توسعه تسلیحات هوش مصنوعی پیشروی کند، یک مسابقه تسلیحاتی جهانی عملاً اجتناب ناپذیر است
این پیشبینی در قالب سیستمهای تسلیحاتی خودمختار مرگبار محقق شد که با رعایت مقررات کمی اهداف را بهتنهایی شناسایی و نابود میکنند. به دلیل گسترش سلاحهای قوی و پیچیده، برخی از قدرتمندترین کشورهای جهان تسلیم نگرانیها شدهاند و به جنگ سرد فناوری کمک کردهاند.
بسیاری از این سلاحهای جدید خطرات عمدهای را برای غیرنظامیان در زمین ایجاد میکنند، اما این خطر زمانی تشدید میشود که سلاحهای خودمختار به دست افراد بد بیافتد. هکرها بر انواع مختلفی از حملات سایبری تسلط یافته اند، بنابراین تصور اینکه یک کاربر مخرب به سلاح های خود مختار نفوذ کند سخت نیست.
اگر رقابتهای سیاسی و تمایلات جنگافروز کنترل نشود، هوش مصنوعی ممکن است با قصد و نیت بد به کار گرفته شود.
چالش های مالی ناشی از الگوریتم های هوش مصنوعی
صنعت مالی پذیرای مشارکت فناوری هوش مصنوعی در فرآیندهای مالی و معاملات روزمره شده است. در نتیجه، معاملات الگوریتمی می تواند مسئول بحران مالی بعدی در بازارها باشد.
در حالی که الگوریتمهای هوش مصنوعی تحت تأثیر قضاوت یا احساسات انسان قرار نمیگیرند،و زمینههای به هم پیوستگی بازارها و عواملی مانند اعتماد و ترس انسان را نیز در نظر نمیگیرند.
این الگوریتمها هزاران معامله را با سرعتی بالا انجام میدهند و هدفشان این است که چند ثانیه بعد به سودهای کوچک به دیگران بفروشند. هزاران معامله فروش می تواند سرمایه گذاران را بترساند و منجر به سقوط ناگهانی و نوسان شدید بازار شود.
مواردی مانند سقوط سهام در سال 2010 و سقوط فلش نایت کپیتال به عنوان یادآوری میکنند چه اتفاقی میافتد.
این بدان معنا نیست که هوش مصنوعی ارزشی برای ارائه به دنیای مالی ندارد. در واقع، الگوریتم های هوش مصنوعی می توانند به سرمایه گذاران کمک کنند تا تصمیمات هوشمندانه و آگاهانه تری در بازار بگیرند.
اما سازمانهای مالی باید مطمئن شوند که الگوریتمهای هوش مصنوعی و نحوه تصمیمگیری آن الگوریتمها را درک میکنند.
شرکتها باید قبل از معرفی این فناوری برای جلوگیری از ایجاد ترس در بین سرمایهگذاران و ایجاد هرج و مرج مالی، بایستی در نظر بگیرند که آیا هوش مصنوعی اعتماد آنها را بالا میبرد یا کاهش میدهد.
از دست دادن نفوذ انسانی
اتکای بیش از حد به فناوری هوش مصنوعی میتواند منجر به از بین رفتن نفوذ انسانی – و فقدان عملکرد انسانی – در برخی از بخشهای جامعه شود.
به عنوان مثال، استفاده از هوش مصنوعی در مراقبت های بهداشتی می تواند منجر به کاهش همدلی و همراهی انسان شود و این مساله برای انسان جذاب نیست یرا دراینگونه مراقبت ها انسان نیاز به مراقبت با حس هم نوعی دارد و فناوری فاقد این توانایی است.
استفاده از هوش مصنوعی برای تلاشهای خلاقانه میتواند خلاقیت و بیان احساسی انسان را کاهش دهد.
تعامل بیش از حد با سیستم های هوش مصنوعی حتی می تواند باعث کاهش مهارت های ارتباطی و اجتماعی با همتایان شود.
بنابراین در حالی که هوش مصنوعی میتواند برای خودکار کردن کارهای روزانه بسیار مفید باشد، برخی این سوال را مطرح میکنند که آیا ممکن است هوش، تواناییها و نیاز کلی انسان به جامعه را کاهش دهد یا خیر.
هوش مصنوعی خودآگاه غیرقابل کنترل
همچنین این نگرانی وجود دارد که هوش مصنوعی آنقدر سریع در هوش پیشرفت کند که هوشیار شود که بتواند برای کارهای مخرب از کنترل انسان خارج شود.
گزارشهای ادعایی دراین باره قبلاً رخ داده است، یکی از حسابهای محبوب یکی از مهندسان سابق گوگل که اظهار داشت ربات چت هوش مصنوعی LaMDA حساس است و دقیقاً مثل یک شخص واقعی با او صحبت میکند.
از آنجایی که نقاط عطف بزرگ بعدی هوش مصنوعی شامل ساخت سیستمهایی با هوش عمومی مصنوعی و در نهایت هوش مصنوعی است، صدا های اعتراض برای متوقف کردن کامل این پیشرفتها همچنان افزایش مییابد.
چگونه خطرات هوش مصنوعی را کاهش دهیم
هوش مصنوعی همچنان دارای مزایای بی شماری است، مانند سازماندهی داده های سلامتی و تقویت خودروهای خودران. با این حال، برخی استدلال می کنند که برای استفاده حداکثری از این فناوری امیدوارکننده، مقررات زیادی لازم است.
هینتون به NPR گفت: «این خطر جدی وجود دارد که به زودی سیستمهای هوش مصنوعی از خودمان هوشمندتر شوند و درحالی که ممکن است انگیزههای بدی داشته باشند و تحت کنترل باشند
دقت کنید این فقط یک مشکل علمی تخیلی نیست. این یک مشکل جدی است که احتمالاً به زودی به وجود خواهد آمد و سیاستمداران باید به فکر این باشند که اکنون در مورد آن چه کاری باید انجام دهند.
تدوین مقررات قانونی برای کنترل هوش مصنوعی
مقررات هوش مصنوعی تمرکز اصلی دهها کشور بوده است و اکنون امریکا و اتحادیه اروپا سعی میکنند که اقدامات بیشتری برای مدیریت گسترش هوش مصنوعی به عمل اورند و اما اینکه تا چه اندازه میتوانند موفق باشند نامعلوم است.
اگرچه این بدان معناست که برخی از فناوریهای هوش مصنوعی میتوانند ممنوع شوند، ولی مانع از کاوش در این زمینه توسط جوامع نمیشود.
استانداردهای هوش مصنوعی سازمانی را ایجاد کنید
حفظ روحیه آزمایش برای فورد حیاتی است، زیرا معتقد است هوش مصنوعی برای کشورهایی که به دنبال نوآوری و همگام با بقیه جهان هستند ضروری است.
شما می توانید نحوه استفاده از هوش مصنوعی را تنظیم می کنید، اما پیشرفت در فناوری پایه را نمی توانید متوقف نمی کنید. فورد گفت: فکر میکنم این کار اشتباه و بالقوه خطرناک است. «ما تصمیم میگیریم که کجا هوش مصنوعی میخواهیم و کجا نه.
کجا قابل قبول است و کجا نیست. این در حالی است کشورهای مختلف انتخاب های متفاوتی در این خصوص دارند.مدیر پوینت امیدوار است این مقاله برایتان مفید بوده باشد.
مبارزه با حیله های هوش مصنوعی