چهارشنبه / ۱۰ آبان ۱۴۰۲ / ۱۴:۳۱
سرویس : دفتر مطالعات
کد خبر : ۱۵۶۵۲
گزارشگر : ۲۳۷۷۳
سرویس دفتر مطالعات

گزارش تکمیلی وبینار هوش مصنوعی و ابعاد حقوق رسانه‌ها

گزارش تکمیلی وبینار هوش مصنوعی و ابعاد حقوق رسانه‌ها
(چهارشنبه ۱۰ آبان ۱۴۰۲) ۱۴:۳۱

وبینار هوش مصنوعی و ابعاد حقوق رسانه‌ها

وبینار « هوش مصنوعی و ابعاد حقوق رسانه‌ها»، روز دوشنبه 8 آبان‌ماه به عنوان شانزدهمین نشست در قالب به وقت رسانه بود که به  همت دفتر مطالعات و برنامه‌ریزی رسانه‌ها برگزار شد.

هوش مصنوعی

به گزارش روابط‌عمومی دفتر مطالعات و برنامه‌ریزی رسانه‌ها، در این وبینار جناب آقای حسین هوشمند فیروزآبادی عضو هیات علمی گروه حقوق پژوهشگاه حوزه و دانشگاه و استاد راهبر بنیاد ملی نخبگان به عنوان سخنران و خانم زهرا جعفری کارشناس واحد پژوهش دفتر مطالعات و برنامه‌ریزی رسانه‌ها به عنوان مجری حضور داشتند و به بررسی  هوش مصنوعی و چالش‌های حقوقی رسانه‌ها پرداختند.

در ابتدای این وبینار، زهرا جعفری، مجری و کارشناس دفتر مطالعات با اشاره ظهور فناوری‌های جدید و تغییرات و تحولات مبتلا به آن، بر لزوم ایجاد بسترهای مناسب این تحولات تاکید کرد. وی افزود؛ با ظهور هوش مصنوعی ابعاد حقوقی مترتب بر رسانه‌ها اهمیت پیدا می‌کند و مساله‌ای که مطرح می‌شود این است که آیا مقررات در خصوص مسئولیت مدنی دولت و ملت پاسخگوی نیاز جامعه تاثیر یافته و متحول شده ناشی از استفاده از هوش مصنوعی هست یا خیر؟ و از آن‌جایی که هوش مصنوعی پدیده بدیعی در جوامع محسوب می‌شود آیا قوانین موجود در زمینه حقوق رسانه کفایت خواهد کرد؟و یا جامعه متاثر از کاربرد هوش مصنوعی با چه مسائل حقوقی و قانونی در زمینه تولید اخبار و پدیده اخبار جعلی روبرو خواهد بود؟ و چه قوانینی باید به تصویب برسد تا از لطمات ناشی از کاربرد هوش مصنوعی برای رسانه‌ها در امان باشیم. ایشان هدف از برگزاری این وبینار را بررسی پیامدها، مخاطرات و ابعاد حقوقی مترتب بر استفاده و کاربرد فناوری هوشمند هوش مصنوعی در عرصه رسانه‌ها  دانست.

در ادامه این وبینار، آقای هوشمند فیروزآبادی ضمن بیان این نکته که ایشان از طرف بنیاد علمی نخبگان مسئول طرح هفتم شهید احمدی روشن هستند. بر اساس این طرح راهبری طرح مسئولیت مدنی رسانه‌های همگانی و بررسی ابعاد فقهی و حقوقی مسئولیت رسانه‌ها از حیث مدنی و نه کیفری را برعهده دارند؛ به بیان نقطه نظرات خود در خصوص موضوع وبینار پرداخت. بخشی از طرح یادشده مربوط به مسئولیت رسانه‌ها با توجه به استفاده رسانه‌ها از هوش مصنوعی است.

هوشمند فیروزآبادی در پاسخ به پرسش مخاطرات احتمالی هوش مصنوعی برای فعالیت‌های رسانه‌ای به ده چالش حقوقی در این خصوص اشاره کرد. مخاطرات ناشی از استفاده از علائم تجاری و علائم و حقوق مربوط به مالکیت ادبی و هنری، لزوم احترام و حفظ حقوق مالکیت معنوی افراد، زیان‌های احتمالی در اثر استفاده از هوش مصنوعی در رسانه‌ها نظیر ورشکسته شدن شرکت‌ها، ورود به حریم خصوصی افراد اعم از حریم خصوصی ارتباطی-اطلاعاتی و شخصی، تهدید بمباران خبری مردم با استفاده از هوش مصنوعی، تاثیرات منفی هوش مصنوعی بر حق حیات و سلامت انسان‌ها از طریق نقض حریم خصوصی افراد، توانایی بازیابی اطلاعات با استفاده از هوش مصنوعی که باعث می‌شود با تجدیدپذیر بودن حریم خصوصی امکان نقض آن هم افزایش یابد، پتانسیل هوش مصنوعی برای در اختیار حاکمیت مستبد قرار گرفتن، افزایش جرائم در مبحث امور کیفری و چالش ارتباط هوش مصنوعی با حفظ مالکیت معنوی افراد از جمله چالش‌ها و مخاطرات مورد بحث بودند.

آقای فیروزآبادی در پاسخ به پرسش ظرفیتها و خلاهای قانون اساسی در مواجهه با فناوری هوش مصنوعی تاکید کرد حتی در عرصه جهانی نیز این زمینه خلاهایی وجود دارد و ما با چالش‌های حقوقی و قانونگذاری در این زمینه روبرو هستیم و مستلزم این است که با توسل به قوانین مادر این خلاها را کاهش دهیم و برخی از این چالش‌ها نیاز به ورود مراکز تقنینی و قانونگذاری به بحث را دارد که بهتر است برای حفظ حقوق افراد به صورت کلی و در صنعت رسانه به صورت جزیی قوانین لازم به تصویب برسد و در این راه می‌توان از تلاش اتحادیه اروپا در تصویب مجموعه قوانین 2017 استفاده کرد و هم‌زمان متناسب با ظرفیت کشور به قانونگذاری هم ورود کنیم.

جعفری مجری وبینار با طرح این مساله که یکی از نگرانی‌های موجود در زمینه هوش مصنوعی چالش رشد اخبار جعلی است که احتمالا رسانه‌ها را درگیر خود کرده و می‌کند؛ این پرسش را مطرح کرد که چه راهکارهایی می‌توان در این خصوص اندیشید تا کمتر در دام اخبار و محتواهای رسانه‌ای جعلی قرار گیریم؟

هوش مصنوعی

هوشمند فیروزآبادی در پاسخ به این پرسش بر نقش الگوریتم‌ها و طراحان آن اشاره و تاکید کرد می‌بایست اخبار را از فیلترهای راستی‌آزمایی‌ها گذراند و طراحان الگوریتم‌ها را متوجه مسئولیت‌هایشان در عملکردشان نمود تا شاهد کمترین آسیب رسانه‌‌ای باشیم و آن‌ها موظف باشند الگوریتم‌ها را به گونه‌ای طراحی کنند که توانایی این را داشته باشند که از انتشار اخبار جعلی جلوگیری کنند. از دید وی باید الگوریتم‌ها به گونه‌ای طراحی شوند که به اخبار و محتواهای فیک حساس باشند. آقای فیروزآبادی در بخش دیگری از نظرات خود معتقد است باید وضعیت خود در این زمینه را مشخص کنیم که آیا هوش مصنوعی را دارای شخصیت مستقل می‌دانیم یا ابزاری در خدمت رسانه؟

این استاد حقوق پژوهشگاه حوزه و دانشگاه در پاسخ به پرسشی در خصوص قوانین پسینی برای مواجهه با هوش مصنوعی در فعالیت‌های رسانه‌ای و تولید محتوا تاکید کرد در این‌جا رسانه‌های خودمختار و رسانه‌هایی که تمام امور خبری و رسانه‌ای خود را به هوش مصنوعی می‌سپرند را به دلیل این‌که هنوز فراگیر نشدند؛ کنار می‌گذاریم و به رسانه‌هایی می‌پردازیم که از نرم‌افزارهای هوش مصنوعی برای مرتفع کردن بخشی از نیازهای خود بهره می‌برند. برای مدیریت این رسانه‌ها باید برای طراحان الگوریتم هوش مصنوعی آنان مسئولیت قائل باشیم تا کمتر دچار کم‌دقتی شوند و اخبار جعلی را تشخیص دهند و به‌نوعی از فیلتر راستی‌آزمایی بگذرانند.

فیروزآبادی تاکید کرد به‌صورت پسینی تمامی عوامل انسانی را باید در تولید این محتواهای زیان‌بار مسئول بدانیم نظیر کتابی که در مرحله چاپ قرار می‌گیرد، اگر از نرم‌افزار هوش مصنوعی استفاده کرده تمامی عوامل انسانی که در چاپ این کتاب دخیل بوده‌اند را می‌توان مسئول دانست و مسئولیت تضامنی برای آن‌ها قائل بود. پس در مرحل قوانین پیشینی طراحان الگوریتم‌ها مسئولیت تام دارند و در مرحله پسینی می‌توان تمامی کسانی که در تولید محتوای رسانه‌ای از نرم‌افزار هوش مصنوعی استفاده کرده‌اند؛ متضامناًً مسئول بدانیم.

 

گزارش از :سارا جعفری

 

 

تعداد بازدید : ۴,۴۸۷
(چهارشنبه ۱۰ آبان ۱۴۰۲) ۱۴:۳۱
ایمیل را وارد کنید
تعداد کاراکتر باقیمانده: 500
نظر خود را وارد کنید