دو لبه اخلاق هوش مصنوعی: مواجهه با تکنوفوبیا و تکنوفیلیا
با گسترش بیوقفه سیستمهای هوش مصنوعی و نقش آرام آرام آنها در حوزههای گوناگون زندگی، بحثهای اخلاقی پیرامون این فناوری ابعاد تازهای به خود میگیرند. در پژوهش اخیر، کتاب «اخلاق هوش مصنوعی: اصول، چالشها و فرصتها» نوشته لوچیا فلوریدی، فیلسوف برجسته ایتالیایی-بریتانیایی و بنیانگذار فلسفه اطلاعات، به عنوان چارچوبی برای فهم این مباحث مطرح شده است. ترجمه فارسی این اثر توسط علیرضا ثقهالاسلامی از پژوهشگاه علوم و فناوری اطلاعات ایران (ایرانداک) منتشر شده و بهطور گستردهای مورد توجه پژوهشگران و فعالان حوزه فناوری و مطالعات اجتماعی قرار گرفته است. به گزارش تیم آرشیو کامل، این کتاب با رویکردی استدلالی به تبیین مبانی فلسفی اخلاق هوش مصنوعی میپردازد و تأکید دارد که مسئله اخلاق در هوش مصنوعی فراتر از مباحث فنی است و به شکل گستردهای با ارادههای انسانی، حقوق اطلاعات، و مسئولیتپذیری اجتماعی گره میخورد.
در گفتوگوی ایبنا با ترجمهگر اثر و با مرور مقدمههای اصلی کتاب، روشن میشود که چرا اکنون اهمیت یافتن اخلاق در حوزه هوش مصنوعی بیش از پیش احساس میشود. این بحثها، از یکسو به «ظرفیت عاملیت هوش مصنوعی» و خودمختاری سیستمهای هوشمند میانجامد و از سوی دیگر به چالشهای اخلاقی مرتبط با استفادههای دوگانه منجر میشود. به تعبیر نویسنده، فناوریهای هوشمند اگرچه میتوانند به بهبود زندگی کمک کنند، اما همواره امکان سوءاستفاده یا استفاده غیرهمسو با منافع انسانی را دارند. این واقعیت، گزارهای است که در بخشهای مختلف کتاب و تحلیلهای مترجمان و پژوهشگران منعکس شده و به شکل یک چارچوب چهارچوبی در برابر ما قرار میدهد: چگونه با مسئولیتپذیری اخلاقی به سمت توسعه و بهکارگیری هوش مصنوعی پیش برویم؟
به گزارش تیم آرشیو کامل، نویسنده و پژوهشگران تأکید میکنند که تاریخچه مباحث اخلاقی در فناوری به نیمه دوم قرن بیستم بازمیگردد و با فراز و فرودهای فناوریهای اطلاعاتی و محاسباتی شکل گرفته است. امروزه این مباحث با ظهور هوش مصنوعی به سطحی میرسد که از نظر عملی به سیاستگذاری، طراحی سیستمهای هوشمند و ارزیابی تأثیرات اجتماعی و اقتصادی گرهخورده است. در این زمینه، اسناد و چارچوبهای بینالمللی همچون توصیهنامههای اخلاق هوش مصنوعی یونسکو (۲۰۲۱) و رویکردهای AI4SG نقش مهمی ایفا میکنند و به ذینفعان مختلف راهبردهای اخلاقی مشخصی ارائه میدهند. این رویکردها به کاربرانی که در ساخت یا استفاده از هوش مصنوعی نقش دارند، اشاره میکنند که اخلاق نباید صرفاً یک شعار باشد؛ بلکه باید به صورت برنامهریزیشده، قابل ارزیابی و قابل اجرا در قالب سیاستها، استانداردها و فرایندهای طراحی و توسعه ظهور یابد.
در بخشهای بعدی، این گزارش به تبیین سه سطح مطالعاتی اخلاق هوش مصنوعی میپردازد: سطح شناختی که به مفهوم و ماهیت هوش مصنوعی مینگرد؛ سطح ارزیابی که به ارزیابی مسائل اخلاقی مربوط به توسعه و استفاده از هوش مصنوعی میپردازد؛ و سطح تجویزی که رهنمودهای اخلاقی را برای طراحی، توسعه و استقرار هوش مصنوعی ارائه میکند. هر سطح، با توجه به تجربیات جهانی و مباحث نظری، میتواند به سدهای عملی در مسیر بهرهبرداری عادلانه و برای خیر عمومی تبدیل شود. این تقسیمبندی میتواند به سیاستگذاران و نهادهای پژوهشی ایرانی و بینالمللی کمک کند تا رویکردی منسجم و پویایی برای مدیریت فناوریهای هوش مصنوعی بیابند و از دو سوی افراطی «تکنوفوبیا» (ترس از فناوری) و «تکنوفیلیا» (شیفتگی بیحد و حصر به فناوری) دور بمانند.
چارچوبهای فلسفی اخلاق هوش مصنوعی و سه سطح مطالعاتی آن
در نگاه فلوریدی، اخلاق هوش مصنوعی بخشی از اخلاق کاربردی و اخلاق تکنولوژی است که در سه سطح اصلی بررسی میشود: سطح شناختی، سطح ارزیابی و سطح تجویزی. در سطح شناختی، مسأله این است که هوش مصنوعی چیست و چگونه کار میکند. این سطح میکوشد بنیانهای مفهومی هوش مصنوعی را روشن کند تا از سردرگمیهای فکری درباره ماهیت، قابلیتها و مرزهای خودمختاری این فناوری کاسته شود. در سطح ارزیابی، مسائل اخلاقی ناشی از توسعه و بهرهبرداری از هوش مصنوعی شناسایی میشود؛ مسائلی همچون نقض حریم خصوصی، نظارت گسترده، سوگیری در مدلهای تصمیمگیری و دستکاری آموزشی با مدلهای زبانی بزرگ (LLMها) از جمله مواردی هستند که باید با اصول اخلاقی متناسب مانند عدم آسیبرسانی، خیرخواهی، عدالت، خودمختاری و توضیحپذیری مدیریت شوند. در سطح تجویزی، با اتکا به اصول جمعآوریشده، توصیهها و رهنمودهای اخلاقی برای طراحی، توسعه و استقرار سیستمهای هوش مصنوعی پیشنهاد میشود. با وجود اینکه کتاب فلوریدی عمدتاً به جنبههای فلسفی و مفهومی میپردازد و به شکل مستقیم به تجویز عملی کامل نمیپردازد، ارجاعهای فراوان به اسناد بینالمللی اخلاق هوش مصنوعی، به انسانها این امکان را میدهد تا گامهای اجرایی مناسب را در قالب سیاستها و استانداردها بردارند.
در ادامه، کتاب به بحث «دوگانگی استفاده» اشاره میکند: همانگونه که یک چاقو میتواند در جراحیهای زندگیبخش کمک کند یا برای صدمهرسانی به کار رود، فناوریهای هوش مصنوعی نیز میتوانند برای منافع عمومی یا آلودگی و زیان اجتماعی به کار گرفته شوند. این نکته نشان میدهد که مسئله تنها به فناوری بستگی ندارد، بلکه به نحوه طراحی، کنترل، استفاده و پاسخگویی انسانها نیز بازمیگردد. از این منظر، نکته کلیدی این است که طراحی، توسعه و استقرار هوش مصنوعی باید همواره با خط قرمز اخلاقی انسانها — خدمت به بشریت و حفظ سلامت کرامت و امنیت جامعه — پیوستگی داشته باشد. برای این منظور، برخی اسناد بینالمللی مانند سند «توصیهنامه اخلاق هوش مصنوعی» یاونسکو (۲۰۲۱) بهعنوان الگو و منش ورزانه برای سیاستگذاری و اجرای پروژههای فناوری اطلاعات و هوش مصنوعی مطرح میشوند و به تعهدات متولیان این حوزه درباره خیر اجتماعی اشاره میکنند. این توصیهها برای تمامی ذینفعان—از پژوهشگران و توسعهدهندگان تا مدیران و کاربران—نشان میدهد که اخلاق هوش مصنوعی فقط یک توصیه اخلاقی نیست، بلکه چارچوبی عملی برای طراحی و ارزیابی فناوری است و باید در فرایندهای ارزیابی ریسک، توسعه و تنظیم استانداردهای فناوری نفوذ کند.
در همین راستا، رویکرد AI4SG یا هوش مصنوعی در خدمت خیر اجتماعی نیز بهطور گسترده در سطح ملی و بینالمللی شکل میگیرد. هدف این رویکردها استفاده از هوش مصنوعی برای ارتقای رفاه عمومی، بهبود سلامت، آموزش، حملونقل و سایر حوزههای زندگی است، به شرط اینکه منافع اجتماعی، عدالت، و حفظ حریم خصوصی بهعنوان ارزشهای پایه رعایت شوند. در کتابِ فلوریدی، ضمن ارجاع به این رویکردها، بر اهمیت وجود چارچوبهای فرهنگی و اخلاقی محلی تأکید میشود تا حکمرانیِ فناوری در هر جامعه با (${علومِ انسانی}$، فلسفه، حقوق و علوم اجتماعی) همسو شود و از بانکهای استانداردهای جهانی برای ایجاد تفاهم و هماهنگی بهره برداری کند.
در ارزیابی وضعیت فعلی در ایران، نگرانیهای مربوط به حریم خصوصی، استفاده از فناوریهای پایش و دوربینهای هوشمند، و همچنین تأثیر مدلهای زبان بزرگ بر آموزش و پژوهش، بهعنوان موضوعاتی با اهمیت بالا مطرح میشوند. با وجود فراگیر بودن ابزارهای فناوری، ناکافی بودن توسعه زیرساختهای قانونی و سیاستی برای مدیریت این فناوری در برخی حوزهها به چشم میخورد. در مقابل، کشورهای پیشرفتهتر از فناوریهای هوش مصنوعی برای بهبود حملونقل، خدمات بهداشتی، آموزش و امنیت بهطور گستردهای استفاده میکنند و در عین حال با ملاحظات اجتماعی و اخلاقی روبهرو هستند که منجر به ایجاد نهادهای تنظیمی و چارچوبهای حاکمیتی میشود. در این چارچوب، توجه به حقوق شهروندی، حفظ حریم خصوصی و شفافیت الگوریتمی بهعنوان اصولی بدیهی مطرح میشود و بهویژه در ایران، با توجه به ابعاد حقوقی و فرهنگی خاص، نیازمند سازواری مناسب بین توسعه فناوری و حفظ ارزشهای جامعه است. بهرغم اینکه برخی از نگرانیها حول نفوذ فناوریهای هوش مصنوعی در زندگی روزمره وجود دارد، رویکردهای مبتنی بر اخلاق کاربردی و مسئولیت حرفهای میتواند مسیر امنتری برای پذیرش فناوری فراهم کند. به گزارش تیم آرشیو کامل، مقایسه با تجربههای بینالمللی نشان میدهد که تصمیمات سیاستی و طراحی نهادی باید با توجه به زمینههای فرهنگی، حقوقی و اجتماعی هر جامعه انجام شود تا از تکرار خطاهای یکباره و کاهش هزینههای اجتماعی جلوگیری شود.
تحلیل نقادانه با نگاه به قوانین جمهوری اسلامی ایران
در چارچوب قوانین جمهوری اسلامی ایران و با توجه به ملاحظات اجرایی و غیرسیاسی، تحلیل حاضر بر اهمیت ایجاد یک رویکرد همسو با اخلاق هوش مصنوعی در سطح ملی تمرکز دارد. بهویژه، لازم است که سیاستگذاران و مدیران پروژههای فناوری به تقویت شفافیت، پاسخگویی و حسابرسی الگوریتمی اهتمام ورزند تا از سوءمصرف یا سوءِ تعبیرهای گوناگون از فناوری جلوگیری شود. ایجاد چارچوبهای قانونی روشن برای حفظ دادههای کاربران، تضمین حریم خصوصی در فضای دیجیتال و ایجاد سازوکارهای گارانتی برای مسئولیتپذیری فنی-اجتماعی، از جمله نکات کلیدی است که میتواند به اعتماد عمومی و پذیرش گستردهتر هوش مصنوعی کمک کند. همچنین باید با اصلاحاتی در فرایندهای پژوهشی و آموزشی، به بهکارگیری مدلهای زبانی بزرگ در حوزههای آموزشی و پژوهشی کمک کرد تا از موازیکاریهای غیرمفید و سوءِ استفاده از دادهها جلوگیری شود. در نهایت، یک رویکرد مسئولانه که با هدف خیر عمومی، عدالت و حفظ کرامت انسانی طراحی و اجرا شود، میتواند به جلوگیری از آسیبهای ممکن و افزایش اثرات مثبت هوش مصنوعی در بخشهای مختلف جامعه کمک کند. این تحلیل، با رعایت چارچوبهای قانونی و ملاحظات اجرایی غیرسیاسی و غیرامنیتی، کوشش میکند تا به یک گفتمان سازنده و عملی برای مدیریت فناوری هوش مصنوعی در ایران دست یابد.
