رویدادها

هوش مصنوعی مفید اما خطرناک

ترس اجتماعی از هوش مصنوعی

سوالاتی در مورد اینکه چه کسی هوش مصنوعی را توسعه می‌دهد و برای چه اهدافی، درک نکات منفی بالقوه آن را ضروری‌تر می‌کند. در این مقاله از سایت مدیر پوینت مروری بر خطرات احتمالی هوش مصنوعی می اندازیم و چگونگی مدیریت خطرات آن را بررسی می کنیم.

 

جهان فناوری مدت هاست در مورد خطرات ناشی از هوش مصنوعی هشدار داده است. اتوماسیون مشاغل، توسعه و نشر اخبار جعلی و مسابقه تسلیحاتی خطرناک تسلیحات مجهز به هوش مصنوعی به عنوان برخی از بزرگترین خطرات ناشی از هوش مصنوعی ذکر شده است.

 

حطر تولیدات هوش مصنوعی برای انسان

 

 

شفاف نبودن و قابلیت توضیح هوش مصنوعی

درک مدل‌های هوش مصنوعی و یادگیری عمیق، حتی برای کسانی که مستقیماً با این فناوری کار می‌کنند، دشوار است. این مساله منجر به عدم شفافیت در مورد چگونگی و چرایی نتیجه‌گیری هوش مصنوعی می‌شود و توضیح قابل قبولی در مورد اینکه الگوریتم‌های هوش مصنوعی از چه داده‌هایی استفاده می‌کنند یا اینکه چرا ممکن است تصمیم‌های بد خواهانه یا ناایمن بگیرند، داده نمیشود.

بیکار شدن افراد در اثر هوش مصنوعی

اتوماسیون شغلی مبتنی بر هوش مصنوعی تولید یک دلواپسی شده است زیرا این فناوری در صنایعی مانند بازاریابی، تولید و مراقبت های بهداشتی فعال شده است. به گفته مک‌کینزی، تا سال 2030، سی درصد خدماتی را که در حال حاضر در اقتصاد امریکا انجام می‌شود، تشکیل می‌دهند، با کمک هوش مصنوعی می‌توانند خودکار شوند و این یعنی بیکاری.

در امریکا با توجه به اینکه کارمندان سیاه‌پوست و اسپانیایی‌تبار به ویژه در برابر تغییرات آسیب‌پذیر هستند.
گلدمن ساکس حتی می گوید که 300 میلیون شغل تمام وقت ممکن است به دلیل اتوماسیون هوش مصنوعی از بین برود.

 

همانطور که ربات‌های هوش مصنوعی باهوش‌تر و ماهرتر می‌شوندبه همان مقدار همان وظایف به انسان‌های کمتری نیاز دارند. و در حالی که تخمین زده می شود که هوش مصنوعی تا سال 2025 نود و هفت میلیون شغل جدید ایجاد کند، بسیاری از کارمندان مهارت های مورد نیاز برای این نقش های فنی را نخواهند داشت و اگر شرکت ها سطح تحصص نیروی کار خود را ارتقاء ندهند، ممکن است عقب بمانند.

«اگر در مک‌دونالدز همبرگر می‌چرخانید و فرایندهای مبتنی بر اتوماسیون بیشترشود، آیا یکی از این مشاغل جدید برای شما مناسب خواهد بود؟

فورد میگوید: این احتمال وجود دارد که شغل جدید به آموزش یا حتی استعدادهای درونی – مهارت‌های بین فردی یا خلاقیت قوی – نیاز داشته باشد و ممکن است شما انرا نداشته باشید! زیرا اینها چیزهایی هستند که، حداقل تا کنون، کامپیوترها هم در آنها خیلی خوب نیستند.”

 

حتی مشاغلی که به مدارک تحصیلات تکمیلی و آموزش اضافی پس از کالج نیاز دارند، از جابجایی هوش مصنوعی در امان نیستند.

هوش مصنوعی در تقابل با پزشکی ،حسابداری ، حقوق

همانطور که کریس مسینا، استراتژیست فناوری اشاره کرده است، مشاغلی مانند قانون و حسابداری برای غلبه بر هوش مصنوعی آماده شده اند. مسینا گفت در واقع ممکن است برخی از آنها از بین بروند. هوش مصنوعی در حال حاضر تأثیر قابل توجهی بر پزشکی دارد. مسینا گفت که قانون و حسابداری در رتبه های بعدی قرار دارند.

 

او در رابطه با حوزه حقوقی گفت: «به پیچیدگی قراردادها فکر کنید، و واقعاً عمیقا فکر کنید و درک کنید که برای ایجاد یک ساختار قرارداد تجاری خوب به چه نکاتی باید پرداخته شود.

بسیاری از وکلا اطلاعات زیادی را مطالعه می کنند – صدها یا هزاران صفحه داده و اسناد.
هوش مصنوعی این توانایی را دارد که بهترین قرارداد ممکن را برای نتیجه ای که می خواهید به دست آورید و به طور جامع ارائه دهد، این مساله یعنی احتمال دارد جایگزین بسیاری از وکلای شرکت شود.

 

 

ایا هوش مصنوعی مشاغل را از بین می برد

 

دستکاری اجتماعی از طریق الگوریتم های هوش مصنوعی

دستکاری اجتماعی نیز به عنوان یک خطر هوش مصنوعی است. این ترس به واقعیت تبدیل شده است، زیرا سیاستمداران برای ترویج دیدگاه‌های خود به پلتفرم‌ها متکی هستند، به عنوان مثال فردیناند مارکوس جونیور، ارتش ترول TikTok را برای جلب آرای فیلیپینی‌های جوان در جریان انتخابات فیلیپین در سال 2022 به کارگرفت.

 

TikTok، که تنها نمونه‌ای از سکوی رسانه‌های اجتماعی است که بر الگوریتم‌های هوش مصنوعی متکی است، فید کاربر را با محتوای مرتبط با رسانه‌های قبلی که در این سکو مشاهده کرده‌اند، پر می‌کند.

انتقاد از برنامه این فرآیند و شکست الگوریتم در فیلتر کردن محتوای مضر و نادرست را هدف قرار می‌دهد و نگرانی‌هایی را در مورد توانایی TikTok برای محافظت از کاربرانش در برابر اطلاعات گمراه‌کننده ایجاد می‌کند.سوال اینجاست ایا فقط متهمTIK TOK است و دیگر سکوهای شبکه اجتماعی پاک هستند برای پاسخ به این پرسش، به اخبار شکایات از سکوهای شبکه های اجتماعی در جهان نگاه کنید.

 

رسانه‌ها و اخبار آنلاین با توجه به تصاویر و ویدیوهای تولید شده توسط هوش مصنوعی، تغییر صداهای هوش مصنوعی و همچنین دیپ‌فیک‌هایی که در حوزه‌های سیاسی و اجتماعی زیاد شده اند، حتی تیره‌تر از گذشته.

این فناوری‌ها ایجاد عکس‌ها، فیلم‌ها، کلیپ‌های صوتی واقعی یا جایگزینی تصویر یک چهره با چهره دیگر در یک تصویر یا ویدیوی موجود را آسان می‌کنند. در نتیجه، کاربران بد روشهای جدیدی برای به اشتراک گذاشتن اطلاعات نادرست و تبلیغات منفی دارند و قادر هستند یک سناریوی کابوس ایجاد کنند که در آن تشخیص اخبار معتبر و ناقص تقریبا غیرممکن است.

فورد : «هیچکس نمی داند چه چیزی واقعی است و چه چیزی نیست. بنابراین به وضعی خواهیم رسید که به معنای واقعی کلمه نمی‌توانید ختی به چشم‌ها و گوش‌های خود اعتماد کنید.

 

شما نمی توانید به آنچه از نظر تاریخی ممکن است بهترین شواهد باشد تکیه کنید و این یک مسئله کوچکی نخواهد بود.

 

نظارت اجتماعی با فناوری هوش مصنوعی

در ادارات پلیس امریکا از الگوریتم های خاص برای پیش بینی محل وقوع حوادث مورد نظر پلیس استفاده می کنند. مشکل این است که این الگوریتم‌ها تحت‌تاثیر حجم دستگیری ها قرار می‌گیرند، که به‌طور نامعقولی بر جوامع سیاه‌پوست تأثیر می‌گذارد. سوالی که مطرح میگردد این است که آیا مقررات و قوانین می توانند در برابر رفتارهای هوش مصنوعی نظم مورد نظر را برقرار کنند یا خیر

 

عدم حفظ حریم خصوصی داده ها با استفاده از ابزارهای هوش مصنوعی

اگر با یک چت ربات هوش مصنوعی کارکرده باشید یا یک فیلتر چهره هوش مصنوعی را به صورت آنلاین امتحان کرده باشید، داده های شما جمع آوری می شود – اما به کجا می رود و چگونه از آن استفاده می شود؟

تعصبات ناشی از هوش مصنوعی

اشکال مختلف یکجانبه گرایی هوش مصنوعی نیز مضر هستند. اولگا روساکوفسکی، استاد علوم کامپیوتر پرینستون، در گفتگو با نیویورک تایمز گفت که تعصب هوش مصنوعی فراتر از جنسیت و نژاد است. علاوه بر داده ها و سوگیری الگوریتمی (که دومی می تواند اولی را “تقویت” کند)، هوش مصنوعی توسط انسان ها توسعه یافته است – و انسان ها ذاتاً جانبدرانه عمل می کنند.

 

روساکوفسکی گفت: محققان عمدتاً مردانی هستند که از جمعیت‌های نژادی خاص می‌آیند، در مناطق اجتماعی-اقتصادی بالا بزرگ شده‌اند، در درجه اول افراد بدون معلولیت. ما جمعیت نسبتاً همگنی هستیم، بنابراین فکر کردن به طور گسترده در مورد مسائل جهانی یک چالش است.

 

 

آب مصرفی توسط هوش مصنوعی

 

 

تجارب محدود سازندگان هوش مصنوعی ممکن است توضیح دهد که چرا هوش مصنوعی تشخیص گفتار اغلب لهجه‌ها و لهجه‌های خاصی را درک نمی‌کند، یا چرا شرکت‌ها عواقب یک ربات چت را که جعل هویت چهره‌های بدنام در تاریخ بشر است، در نظر نمی‌گیرند. توسعه‌دهندگان و کسب‌وکارها باید دقت بیشتری به خرج دهند تا از بازآفرینی جانب دارانه و پیش‌داوری‌های که اقلیت‌ها را در معرض خطر قرار می‌دهد، اجتناب کنند.

 

نابرابری اجتماعی-اقتصادی در نتیجه هوش مصنوعی

اگر شرکت‌ها از جانبداری ذاتی موجود در الگوریتم‌های هوش مصنوعی دوری کنند، ممکن است ” دی ای ای” به مفهوم تنوع، برابری و شمول خود را از طریق استخدام مبتنی بر هوش مصنوعی کنار بگذارند ، انگاه هوش مصنوعی برای ایشان خطر ناک عمل میکند.

این فکر که هوش مصنوعی می‌تواند ویژگی‌های یک نامزد را از طریق تجزیه و تحلیل‌های چهره و صدا اندازه‌گیری کند، همچنان با تعصبات نژادی آلوده است و همان شیوه‌های استخدام تبعیض‌آمیز را بازتولیدمی کند.

 

گسترش نابرابری اجتماعی-اقتصادی ناشی از از دست دادن شغل ناشی از هوش مصنوعی یکی دیگر از دلایل نگرانی است که جهت گیری های طبقاتی در مورد نحوه به کارگیری هوش مصنوعی رانمایان می سازد.

ممکن است کارگران یقه آبی که کارهای دستی و تکراری بیشتری انجام می دهند، به دلیل اتوماسیون، کاهش دستمزدشان را تا 70 درصد تجربه کرده اند. در همین حال محتمل است کارگران یقه سفید دست نخورده باقی مانده و حتی برخی از آنها از دستمزد بالاتری برخوردار شوند.

 

ادعاهای گسترده مبنی بر اینکه هوش مصنوعی به نوعی بر مرزهای اجتماعی غلبه کرده یا مشاغل بیشتری ایجاد کرده است، نمی تواند تصویر درستی از اثرات آن باشد.

در نظر گرفتن تفاوت ها بر اساس نژاد، طبقه و سایر دسته های اجتماعی بسیار مهم است. در غیر این صورت، تشخیص اینکه هوش مصنوعی و اتوماسیون چگونه به ضرر افراد و گروه‌های خاص به نفع دیگران است، دشوارتر می‌شود.

تضعیف اخلاق به دلیل هوش مصنوعی

همراه با فن‌آوران، روزنامه‌نگاران و شخصیت‌های سیاسی، حتی رهبران مذهبی نیز زنگ خطرات احتمالی اجتماعی-اقتصادی هوش مصنوعی را به صدا در می‌آورند.

پاپ فرانسیس در یک نشست واتیکان در سال 2019 با عنوان “خیر مشترک در عصر دیجیتال” نسبت به توانایی هوش مصنوعی برای “انتشار عقاید متعصبانه و داده های نادرست” هشدار داد و بر عواقب گسترده اجازه توسعه این فناوری بدون نظارت یا محدودیت مناسب تاکید کرد و البته این تبعیضات بر علیه همه در همه جا مطرح بوده و اینگونه نیست که یک فرهنگ خاص در خطر عملکرد بد هوش مصنوعی قرارگرفته باشد.

 

 

پاپ میگوید«اگر به‌اصطلاح پیشرفت‌های تکنولوژیک بشر به دشمن خیر عمومی تبدیل شود، این امر منجر به یک پسرفت تاسف‌بار به نوعی بربریت می‌شود که توسط قانون قوی‌ترین دیکته شده است.»

 

ظهور سریع ابزارهای مولد هوش مصنوعی مانند ChatGPT و Bard به این نگرانی ها بیشتر می بخشد. بسیاری از کاربران از این فناوری برای بیرون آمدن از تکالیف نوشتاری استفاده کرده اند که یکپارچگی و خلاقیت را تهدید می کند.

 

سلاح های خودگردان که توسط هوش مصنوعی کار می کنند

همانطور که اغلب اتفاق می افتد، پیشرفت های تکنولوژیک برای اهداف جنگی مهار شده است. وقتی صحبت از هوش مصنوعی به میان می‌آید، بسیاری عقیده دارند تا قبل از اینکه خیلی دیر شود کاری در مورد آن انجام دهند: در همین رابطه  در نامه‌ای سرگشاده در سال 2016، بیش از 30000 نفر، از جمله محققان هوش مصنوعی و روباتیک، از سرمایه‌گذاری در سلاح‌های خودران با سوخت هوش مصنوعی هشدار دادند.

آنها نوشتند: «سوال کلیدی برای بشریت امروز این است که آیا باید یک مسابقه تسلیحاتی جهانی هوش مصنوعی را آغاز کرد یا از شروع آن جلوگیری کرد. اگر هر قدرت نظامی بزرگی با توسعه تسلیحات هوش مصنوعی پیشروی کند، یک مسابقه تسلیحاتی جهانی عملاً اجتناب ناپذیر است

این پیش‌بینی در قالب سیستم‌های تسلیحاتی خودمختار مرگبار محقق شد که با رعایت مقررات کمی اهداف را به‌تنهایی شناسایی و نابود می‌کنند. به دلیل گسترش سلاح‌های قوی و پیچیده، برخی از قدرتمندترین کشورهای جهان تسلیم نگرانی‌ها شده‌اند و به جنگ سرد فناوری کمک کرده‌اند.

 

 

 

تسلط هوش مصنوعی بر سلاح ها ی خودکار

 

 

بسیاری از این سلاح‌های جدید خطرات عمده‌ای را برای غیرنظامیان در زمین ایجاد می‌کنند، اما این خطر زمانی تشدید می‌شود که سلاح‌های خودمختار به دست افراد بد بیافتد. هکرها بر انواع مختلفی از حملات سایبری تسلط یافته اند، بنابراین تصور اینکه یک کاربر مخرب به سلاح های خود مختار نفوذ کند سخت نیست.

اگر رقابت‌های سیاسی و تمایلات جنگ‌افروز کنترل نشود، هوش مصنوعی ممکن است با قصد و نیت بد به کار گرفته شود.

 

 

چالش های مالی ناشی از الگوریتم های هوش مصنوعی

صنعت مالی پذیرای مشارکت فناوری هوش مصنوعی در فرآیندهای مالی و معاملات روزمره شده است. در نتیجه، معاملات الگوریتمی می تواند مسئول بحران مالی بعدی در بازارها باشد.

در حالی که الگوریتم‌های هوش مصنوعی تحت تأثیر قضاوت یا احساسات انسان قرار نمی‌گیرند،و زمینه‌های به هم پیوستگی بازارها و عواملی مانند اعتماد و ترس انسان را نیز در نظر نمی‌گیرند.

این الگوریتم‌ها هزاران معامله را با سرعتی بالا انجام می‌دهند و هدفشان این است که چند ثانیه بعد به سودهای کوچک به دیگران بفروشند. هزاران معامله فروش می تواند سرمایه گذاران را بترساند و منجر به سقوط ناگهانی و نوسان شدید بازار شود.

مواردی مانند سقوط سهام در سال 2010 و سقوط فلش نایت کپیتال به عنوان یادآوری می‌کنند چه اتفاقی می‌افتد.

 

این بدان معنا نیست که هوش مصنوعی ارزشی برای ارائه به دنیای مالی ندارد. در واقع، الگوریتم های هوش مصنوعی می توانند به سرمایه گذاران کمک کنند تا تصمیمات هوشمندانه و آگاهانه تری در بازار بگیرند.

اما سازمان‌های مالی باید مطمئن شوند که الگوریتم‌های هوش مصنوعی و نحوه تصمیم‌گیری آن الگوریتم‌ها را درک می‌کنند.
شرکت‌ها باید قبل از معرفی این فناوری برای جلوگیری از ایجاد ترس در بین سرمایه‌گذاران و ایجاد هرج و مرج مالی، بایستی در نظر بگیرند که آیا هوش مصنوعی اعتماد آنها را بالا می‌برد یا کاهش می‌دهد.

 

از دست دادن نفوذ انسانی

اتکای بیش از حد به فناوری هوش مصنوعی می‌تواند منجر به از بین رفتن نفوذ انسانی – و فقدان عملکرد انسانی – در برخی از بخش‌های جامعه شود.

به عنوان مثال، استفاده از هوش مصنوعی در مراقبت های بهداشتی می تواند منجر به کاهش همدلی و همراهی انسان شود و این مساله برای انسان جذاب نیست یرا دراینگونه مراقبت ها انسان نیاز به مراقبت با حس هم نوعی دارد و فناوری فاقد این توانایی است.

استفاده از هوش مصنوعی برای تلاش‌های خلاقانه می‌تواند خلاقیت و بیان احساسی انسان را کاهش دهد.

تعامل بیش از حد با سیستم های هوش مصنوعی حتی می تواند باعث کاهش مهارت های ارتباطی و اجتماعی با همتایان شود.
بنابراین در حالی که هوش مصنوعی می‌تواند برای خودکار کردن کارهای روزانه بسیار مفید باشد، برخی این سوال را مطرح می‌کنند که آیا ممکن است هوش، توانایی‌ها و نیاز کلی انسان به جامعه را کاهش دهد یا خیر.

 

هوش مصنوعی خودآگاه غیرقابل کنترل

همچنین این نگرانی وجود دارد که هوش مصنوعی آنقدر سریع در هوش پیشرفت کند که هوشیار شود که بتواند برای کارهای مخرب از کنترل انسان خارج شود.

گزارش‌های ادعایی دراین باره قبلاً رخ داده است، یکی از حساب‌های محبوب یکی از مهندسان سابق گوگل که اظهار داشت ربات چت هوش مصنوعی LaMDA حساس است و دقیقاً مثل یک شخص واقعی با او صحبت می‌کند.

از آنجایی که نقاط عطف بزرگ بعدی هوش مصنوعی شامل ساخت سیستم‌هایی با هوش عمومی مصنوعی و در نهایت هوش مصنوعی است، صدا های اعتراض برای متوقف کردن کامل این پیشرفت‌ها همچنان افزایش می‌یابد.

 

 

 

 

چگونه خطرات هوش مصنوعی را کاهش دهیم

هوش مصنوعی همچنان دارای مزایای بی شماری است، مانند سازماندهی داده های سلامتی و تقویت خودروهای خودران. با این حال، برخی استدلال می کنند که برای استفاده حداکثری از این فناوری امیدوارکننده، مقررات زیادی لازم است.

هینتون به NPR گفت: «این خطر جدی وجود دارد که به زودی سیستم‌های هوش مصنوعی از خودمان هوشمندتر شوند و درحالی که ممکن است انگیزه‌های بدی داشته باشند و تحت کنترل باشند

دقت کنید این فقط یک مشکل علمی تخیلی نیست. این یک مشکل جدی است که احتمالاً به زودی به وجود خواهد آمد و سیاستمداران باید به فکر این باشند که اکنون در مورد آن چه کاری باید انجام دهند.

تدوین مقررات قانونی برای کنترل هوش مصنوعی

مقررات هوش مصنوعی تمرکز اصلی ده‌ها کشور بوده است و اکنون امریکا و اتحادیه اروپا سعی میکنند که اقدامات بیشتری برای مدیریت گسترش هوش مصنوعی به عمل اورند و اما اینکه تا چه اندازه میتوانند موفق باشند نامعلوم است.

اگرچه این بدان معناست که برخی از فناوری‌های هوش مصنوعی می‌توانند ممنوع شوند، ولی مانع از کاوش در این زمینه توسط جوامع نمی‌شود.

 

 

تعیین مقررات برای هوش مصنوعی

 

استانداردهای هوش مصنوعی سازمانی را ایجاد کنید

حفظ روحیه آزمایش برای فورد حیاتی است، زیرا معتقد است هوش مصنوعی برای کشورهایی که به دنبال نوآوری و همگام با بقیه جهان هستند ضروری است.

شما می توانید نحوه استفاده از هوش مصنوعی را تنظیم می کنید، اما پیشرفت در فناوری پایه را نمی توانید متوقف نمی کنید. فورد گفت: فکر می‌کنم این کار اشتباه و بالقوه خطرناک است. «ما تصمیم می‌گیریم که کجا هوش مصنوعی می‌خواهیم و کجا نه.
کجا قابل قبول است و کجا نیست. این در حالی است کشورهای مختلف انتخاب های متفاوتی در این خصوص دارند.مدیر پوینت امیدوار است این مقاله برایتان مفید بوده باشد.

 

مبارزه با حیله های هوش مصنوعی

 

نوشته های مشابه

همچنین ببینید
بستن
دکمه بازگشت به بالا