نوع مقاله : علمی و پژوهشی
نویسندگان
1 استاد دانشکده حقوق، دانشگاه ملی مالزی (UKM)، مالزی
2 گروه حقوق. واحد لاهیجان. دانشگاه آزاد اسلامی. لاهیجان. ایران
3 استادیار گروه حقوق، دانشگاه آزاد اسلامی واحد لاهیجان، لاهیجان، ایران
4 دانشیار گروه حقوق، دانشگاه ایلام، ایلام، ایران
چکیده
تازه های تحقیق
وسایل نقلیه خودران تکنولوژیهای نویدبخشی هستند که پتانسیل بالایی برای بهبود رفاه اجتماعی و کاهش آسیبهای غیرضروری ناشی از خطای انسانی دارند. بااینحال، مانند همه ابزارها، آنها بیعیب نیستند: آنها شکست میخورند و گاهی این شکستها ممکن است عواقب فاجعهبار داشته باشند. یک جامعه معقول باید نهتنها مزایای چنین تکنولوژیهایی را بپذیرد، بلکه همچنین اطمینان حاصل کند که یک رژیم قانونی مؤثر و بهطور کافی متناسب برای حفاظت از حقوق قربانیان و متهمان بالقوه تصویب شود. چنین رژیمی باید تعادلی حساس میان دو افراط ناخوشایند برقرار کند: نادیده گرفتن خصوصیات خاص تکنولوژی بهطورکلی و مقصر دانستن افرادی که هیچگونه آگاهی یا کنترلی بر نتیجه مضر نداشتند، یا اینکه خیلی با این تغییرات موافق باشد درحالیکه هیچگونه مسئولیت کیفری را بهطورکلی مستثنا کند. در این راستا، در بخش دوم ابتدا دلایل مختلفی که نشان میدهد سیستمهای هوش مصنوعی درواقع متفاوت هستند، بیان کردیم. یکی از جنبههای اصلی آن، مؤلفه یادگیری ماشین است که اغلب باعث میشود عملکرد هوش مصنوعی دیگر قابل پیشبینی نباشد. حتی طراحان نیز غالباً نمیتوانند دقیقاً پیشبینی کنند یا درک کنند که سیستمهای یادگیری ماشین آنها چگونه کار میکنند و این مشکل بهطور تصاعدی برای رانندگان AV که هیچ زمینهای در هوش مصنوعی ندارند، صدق میکند. همراه با مشکل ریسک عمومی، این ویژگیها میتوانند باعث شوند که عنصر اپیستمیک لازم برای عنصر ذهنی- دانش- بهطور عملی غایب باشد. علاوهبر این، ما همچنین تأکید کردیم که کنترل عملی برای مسئولیت کیفری حیاتی است: تنها اعمال یا سهلانگاریهایی که متهم واقعاً بر آنها کنترل داشته باشد میتوانند به او نسبت داده شوند. مشاهده کردیم که این مشکل بهویژه برای بندهای بازگشتی حائز اهمیت است که ممکن است همیشه در نظر نگیرند که آیا کاربران ظرفیت عملی برای مداخله بهدرستی داشتهاند یا خیر.
درنهایت، متمرکز کردن گناه بر روی دستیاران فنی خاص به دلیل مقیاس وسیع بازیگران و تعاملات دخیل در آن دشوار است که به آن «مسئله دستهای زیاد» گفته میشود. ما استدلال کردیم که ویژگیهای هوش مصنوعی مدرن شرایط خاصی را ایجاد میکند (مانند مشکل اپیستمیک و مشکل دستهای زیاد) که میتواند منجر به نقص در فرضیات زیربنایی مفهوم کیفری شود. ما این نقصها را در مکانیزم انتساب مسئولیت، بهعنوان شکستهای ناشی از غفلت نام بردیم. بر اساس این مقدمات، سه رویکرد مختلف برای اصلاح شکستهای غفلت را بررسی کردیم: پیشنهادهای سنگاپور در مورد چارچوب عمومی مسئولیت کیفری برای جرائم هوش مصنوعی، اصلاحات فرانسه به قانون جادهها و در ایران، تأکید بر مسئولیت مبتنی بر تقصیر و اصول مسئولیت مدنی، بهویژه در چارچوب قانون مسئولیت مدنی ۱۳۳۹ و قانون مجازات اسلامی که نیازمند بهروزرسانی برای شمول شرایط خاص خودروهای خودران است.
کلیدواژهها
موضوعات
عنوان مقاله [English]
نویسندگان [English]
With the rapid advancement of artificial intelligence-based technologies, particularly autonomous vehicles, criminal justice systems are facing novel challenges in identifying and attributing criminal liability. The significance of this issue lies in the fact that, despite their high potential to enhance transportation safety and improve social welfare, autonomous vehicles—due to their reliance on complex algorithms, the absence of direct human control, and the ability to make independent decisions—are transforming the traditional foundations of criminal liability, such as mens rea, foreseeability, and imputability. Addressing this issue is essential in light of the need to reconsider traditional criminal law frameworks and to develop new models that remain effective in confronting emerging technologies.This study aims to conduct a comparative analysis of the legal approaches adopted by France, Singapore, and Iran, examining the capacity of each to regulate criminal liability arising from the malfunction or wrongful behavior of autonomous vehicles. The research employs a descriptive-analytical method based on library resources and legal documents. The findings indicate that, despite philosophical and structural differences among the examined models, each strives to establish clear boundaries between liability and immunity by introducing new frameworks suited to the demands of the AI era. Accordingly, the development of training and licensing systems for technology users, along with the design of empirical testing mechanisms prior to the release of such technologies into real-world settings, are among the key recommendations proposed to enhance criminal accountability in the age of artificial intelligence.
کلیدواژهها [English]
ارسال نظر در مورد این مقاله