تحلیل تطبیقی مقررات کیفری مرتبط با هوش مصنوعی و وسایل نقلیه خودران: مطالعه‌ای بر نظام‌های حقوقی سنگاپور، فرانسه و ایران

نوع مقاله : علمی و پژوهشی

نویسندگان

1 استاد دانشکده حقوق، دانشگاه ملی مالزی (UKM)، مالزی

2 گروه حقوق. واحد لاهیجان. دانشگاه آزاد اسلامی. لاهیجان. ایران

3 استادیار گروه حقوق، دانشگاه آزاد اسلامی واحد لاهیجان، لاهیجان، ایران

4 دانشیار گروه حقوق، دانشگاه ایلام، ایلام، ایران

10.22091/csiw.2025.12231.2630

چکیده

با توسعه سریع فناوری‌های مبتنی بر هوش مصنوعی، به‌ویژه وسایل نقلیه خودکار، نظام‌های حقوق کیفری با چالش‌های نوینی درزمینه شناسایی و انتساب مسئولیت کیفری مواجه شده‌اند. اهمیت این موضوع از آن‌روست که وسایل نقلیه خودکار، علی‌رغم ظرفیت بالای خود در ارتقاء ایمنی حمل‌ونقل و بهبود رفاه اجتماعی، به دلیل بهره‌گیری از الگوریتم‌های پیچیده، فقدان کنترل انسانی مستقیم و قابلیت تصمیم‌گیری مستقل، موجب تغییر در مبانی سنتی مسئولیت کیفری نظیر عنصر روانی، پیش‌بینی‌پذیری و قابلیت انتساب می‌گردند. ضرورت پرداختن به این مسئله ناشی از نیاز به بازنگری در ساختارهای سنتی حقوق کیفری و طراحی الگوهای نوینی است که بتوانند در مواجهه با فناوری‌های نوظهور، کارآمد باقی بمانند. پژوهش حاضر با هدف تحلیل تطبیقی سه مدل حقوقی اتخاذ شده در کشورهای فرانسه، سنگاپور و ایران، به بررسی ظرفیت‌های هریک در تنظیم مسئولیت کیفری در قبال عملکرد نادرست وسایل نقلیه خودکار می‌پردازد. روش تحقیق به‌صورت توصیفی‌تحلیلی و با بهره‌گیری از منابع کتابخانه‌ای و اسناد حقوقی بوده است. یافته‌های پژوهش نشان می‌دهد که علی‌رغم تفاوت‌های فلسفی و ساختاری در مدل‌های بررسی‌شده، هر یک تلاش دارند با ترسیم مرزهای روشن میان مسئولیت و مصونیت، چارچوب‌های جدیدی متناسب با الزامات دنیای هوش مصنوعی معرفی نمایند. درنتیجه، ضرورت تدوین نظام‌های آموزش و صدور مجوز برای کاربران فناوری و طراحی سازوکارهای آزمون تجربی پیش از رهاسازی فناوری در محیط واقعی، ازجمله راهکارهای پیشنهادی این تحقیق برای ارتقاء نظام پاسخگویی کیفری در عصر هوش مصنوعی است.

تازه های تحقیق

وسایل نقلیه خودران تکنولوژی‌های نویدبخشی هستند که پتانسیل بالایی برای بهبود رفاه اجتماعی و کاهش آسیب‌های غیرضروری ناشی از خطای انسانی دارند. بااین‌حال، مانند همه ابزارها، آن‌ها بی‌عیب نیستند: آن‌ها شکست می‌خورند و گاهی این شکست‌ها ممکن است عواقب فاجعه‌بار داشته باشند. یک جامعه معقول باید نه‌تنها مزایای چنین تکنولوژی‌هایی را بپذیرد، بلکه همچنین اطمینان حاصل کند که یک رژیم قانونی مؤثر و به‌طور کافی متناسب برای حفاظت از حقوق قربانیان و متهمان بالقوه تصویب شود. چنین رژیمی باید تعادلی حساس میان دو افراط ناخوشایند برقرار کند: نادیده گرفتن خصوصیات خاص تکنولوژی به‌طورکلی و مقصر دانستن افرادی که هیچ‌گونه آگاهی یا کنترلی بر نتیجه مضر نداشتند، یا اینکه خیلی با این تغییرات موافق باشد درحالی‌که هیچ‌گونه مسئولیت کیفری را به‌طورکلی مستثنا کند. در این راستا، در بخش دوم ابتدا دلایل مختلفی که نشان می‌دهد سیستم‌های هوش مصنوعی درواقع متفاوت هستند، بیان کردیم. یکی از جنبه‌های اصلی آن، مؤلفه یادگیری ماشین است که اغلب باعث می‌شود عملکرد هوش مصنوعی دیگر قابل پیش‌بینی نباشد. حتی طراحان نیز غالباً نمی‌توانند دقیقاً پیش‌بینی کنند یا درک کنند که سیستم‌های یادگیری ماشین آن‌ها چگونه کار می‌کنند و این مشکل به‌طور تصاعدی برای رانندگان AV که هیچ زمینه‌ای در هوش مصنوعی ندارند، صدق می‌کند. همراه با مشکل ریسک عمومی، این ویژگی‌ها می‌توانند باعث شوند که عنصر اپیستمیک لازم برای عنصر ذهنی- دانش- به‌طور عملی غایب باشد. علاوه‌بر این، ما همچنین تأکید کردیم که کنترل عملی برای مسئولیت کیفری حیاتی است: تنها اعمال یا سهل‌انگاری‌هایی که متهم واقعاً بر آن‌ها کنترل داشته باشد می‌توانند به او نسبت داده شوند. مشاهده کردیم که این مشکل به‌ویژه برای بندهای بازگشتی حائز اهمیت است که ممکن است همیشه در نظر نگیرند که آیا کاربران ظرفیت عملی برای مداخله به‌درستی داشته‌اند یا خیر.

درنهایت، متمرکز کردن گناه بر روی دستیاران فنی خاص به دلیل مقیاس وسیع بازیگران و تعاملات دخیل در آن دشوار است که به آن «مسئله دست‌های زیاد» گفته می‌شود. ما استدلال کردیم که ویژگی‌های هوش مصنوعی مدرن شرایط خاصی را ایجاد می‌کند (مانند مشکل اپیستمیک و مشکل دست‌های زیاد) که می‌تواند منجر به نقص در فرضیات زیربنایی مفهوم کیفری شود. ما این نقص‌ها را در مکانیزم انتساب مسئولیت، به‌عنوان شکست‌های ناشی از غفلت نام بردیم. بر اساس این مقدمات، سه رویکرد مختلف برای اصلاح شکست‌های غفلت را بررسی کردیم: پیشنهاد‌های سنگاپور در مورد چارچوب عمومی مسئولیت کیفری برای جرائم هوش مصنوعی، اصلاحات فرانسه به قانون جاده‌ها و در ایران، تأکید بر مسئولیت مبتنی بر تقصیر و اصول مسئولیت مدنی، به‌ویژه در چارچوب قانون مسئولیت مدنی ۱۳۳۹ و قانون مجازات اسلامی که نیازمند به‌روزرسانی برای شمول شرایط خاص خودروهای خودران است.

کلیدواژه‌ها

موضوعات


عنوان مقاله [English]

Comparative Analysis of Criminal Regulations Related to Artificial Intelligence and Autonomous Vehicles: A Study of the Legal Systems of Singapore, France and Iran

نویسندگان [English]

  • nabeel mahdi althabhawi 1
  • Maryam Bahrekazemi 2
  • amirreza mahmoudi 3
  • parviz bagheri 4
1 Prof. at the Faculty of Law, National University of Malaysia (UKM), Selangor, Malaysia.
2 M.A. in Private Law, Lahijan Branch, Islamic Azad University, Lahijan, Gilan, Iran.
3 Assistant Professor of Law Department, Lahijan Branch, Islamic Azad University, lahijan, Iran.
4 Associate Professor of Law, Ilam. Iran
چکیده [English]

With the rapid advancement of artificial intelligence-based technologies, particularly autonomous vehicles, criminal justice systems are facing novel challenges in identifying and attributing criminal liability. The significance of this issue lies in the fact that, despite their high potential to enhance transportation safety and improve social welfare, autonomous vehicles—due to their reliance on complex algorithms, the absence of direct human control, and the ability to make independent decisions—are transforming the traditional foundations of criminal liability, such as mens rea, foreseeability, and imputability. Addressing this issue is essential in light of the need to reconsider traditional criminal law frameworks and to develop new models that remain effective in confronting emerging technologies.This study aims to conduct a comparative analysis of the legal approaches adopted by France, Singapore, and Iran, examining the capacity of each to regulate criminal liability arising from the malfunction or wrongful behavior of autonomous vehicles. The research employs a descriptive-analytical method based on library resources and legal documents. The findings indicate that, despite philosophical and structural differences among the examined models, each strives to establish clear boundaries between liability and immunity by introducing new frameworks suited to the demands of the AI era. Accordingly, the development of training and licensing systems for technology users, along with the design of empirical testing mechanisms prior to the release of such technologies into real-world settings, are among the key recommendations proposed to enhance criminal accountability in the age of artificial intelligence.

کلیدواژه‌ها [English]

  • Criminal Responsibility of Artificial Intelligence
  • Automated Vehicles
  • Comparative Criminal Law
  • Legal Causation
فرزامی، رعنا. (1401). «مسئولیت کیفری ناشی از خودروهای بدون سرنشین با تأکید بر هوش مصنوعی». چهارمین کنفرانس بین‌المللی مطالعات بین‌رشته‌ای در مدیریت و مهندسی. بی‌نا.
یکرنگی، محمد و برزگر، محمدرضا. (1401). «مسئولیت کیفری تولیدکننده و طراح خودروهای خودران در قبال صدمات وارده توسط آن‌ها». مطالعات حقوق کیفری و جرم‌شناسی، دوره 52، شماره 1.
قانون بیمه اجباری خسارات ناشی از تصادفات رانندگی، ۱۳۹۵.
قانون مجازات اسلامی، ۱۳۹۲.
قانون مسئولیت مدنی، ۱۳۳۹.
 
References
A.J. Lohn. (2020). Estimating the Brittleness of AI: Safety Integrity Levels and the Need for Testing Out-Of-Distribution Performance. Retrieved from:  
http://arxiv.org/abs/2009.00802, p. 2.
bdul et al. (2018). Trends and trajectories for explainable, accountable and intelligible systems: An HCI research agenda. Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems, p. 5.
Beard, J. M. (2014). Autonomous weapons and human responsibilities. Georgetown Journal of International Law, 45, p. 651.
Chesterman, A. (2023). The Regulation of Automated Vehicles: Challenges and Legal Implications. p. 35.
dadi, A, & Berrada, M. (2018). Peeking inside the black-box: A survey on explainable artificial intelligence (XAI). IEEE Access, 6, 52138.
Geiß, R, & Lahmann, H. (2017). Autonomous Weapons Systems: A Paradigm Shift for the Law of Armed Conflict? In J. D. Ohlin (Ed.), Research Handbook on Remote Warfare
(p. 393). Edward Elgar.
Geiß, R, & Lahmann, H. (2017). Autonomous weapons systems: A paradigm shift for the law of armed conflict? In J. D. Ohlin (Ed.), Research Handbook on Remote Warfare (p. 378). Edward Elgar.
Giuca, Marta, "Disciplinare l’intelligenza artificiale. La riforma francese sulla responsabilita` penale da uso di auto a guida autonoma" (2022), 2 Archivio Penale.
Gogarty, B, & Hagger, M. C. (2008). The laws of man over vehicles unmanned: The legal response to robotic revolution on sea, land, and air. Journal of Law, Information and Science, 19, p. 123.
Hallevy, G. (2012). Unmanned vehicles – Subordination to criminal law under the modern concept of criminal liability. Journal of Law, Information and Science, 21, 200.
Hallevy, G. (2014). Criminal Liability of Artificial Intelligence Entities: The Challenge of Artificial Intelligence in Law and Ethics (p. 205). Springer.
Hayward et al. (2019). Real-World Examples of Cyberattacks. Science and Engineering Ethics, pp. 90–106.
hesterman, S. (2021). We, the Robots? Regulating Artificial Intelligence and the Limits of the Law. Cambridge University Press, p. 5.
Himmelreich, J. (2011). Autonomous Weapons Systems and International Law. p. 735.
House of Lords. (2018). Select Committee on Artificial Intelligence, Report of Session 2017-2019, AI in the UK: Ready, Willing, and Able? HL Paper 100, 16 April 2018, p. 37.
J.G. Thorne. (2020). Warriors and War Algorithms: Leveraging Artificial Intelligence to Enable Ethical Targeting. Naval War College, p. 7.
Jain, N. (2016). Autonomous Weapons Systems: New Frameworks for Individual Responsibility. In N. Bhuta et al. (Eds.), Autonomous Weapons Systems: Law, Ethics, Policy (p. 317). Cambridge University Press.
Kwik, J. (2022). A practicable operationalisation of meaningful human control. Laws,
11(15-16).
Law Commission of England and Wales Report (Law Com No 404, 2022), Scottish Law Commission (Law Com No 258), Automated Vehicles: Joint Report [4.1.].
Law Commissions. (2022, January 26). Automated vehicles: Summary of joint report (HC 1068 SG/2022/15). https://www.gov.uk/government/publications/automated-vehicles-summary-of-joint-report
Law Commissions. (2022, January 26). Automated vehicles: Summary of joint report (HC 1068 SG/2022/15). https://www.gov.uk/government/publications/automated-vehicles-summary-of-joint-report
Law Commissions. (2022, January 26). Automated vehicles: Summary of joint report (HC 1068 SG/2022/15). https://www.gov.uk/government/publications/automated-vehicles-summary-of-joint-report
LCR. (2022). Joint Report on Automated Vehicles. [1.1].
Lohn, A. J. (2020). Estimating the brittleness of AI: Safety integrity levels and the need for testing out-of-distribution performance. http://arxiv.org/abs/2009.00802, p. 6.
Lohn, A.J. (2020). Estimating the Brittleness of AI: Safety Integrity Levels and the Need for Testing Out-Of-Distribution Performance. Retrieved from:  
http://arxiv.org/abs/2009.00802, p. 2.
Matthias, A. (2011). The Responsibility Gap: Ascribing Responsibility for the Actions of AI.
pp. 175-182.
National Transportation Safety Board. (2019). Highway Accident Report: Collision Between Vehicle Controlled by Developmental Automated Driving System and Pedestrian. NTSB/HAR-19/03 PB2019-101402.
Ordinance of 14 April 2021, No. 2021-443, "Responsabilité pénale applicable en cas de circulation d'un véhicule à délégation de conduite."
Pagallo, U. (2017). From automation to autonomous systems: A legal phenomenology with problems of accountability. Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence, 17.
Parasuraman, R, & Manzey, D. H. (2010). Complacency and Bias in Human Use of Automation: An Attentional Integration. Human Factors, 52(3), 382.
Perri 6. (2001). Ethics, regulation and the new artificial intelligence, Part II: Autonomy and liability. Information, Communication and Society, 4, 56.
Perrow, C. (1984). Normal Accidents: Living with High-Risk Technologies. Basic Books,
p. 132.
SAE International. (2021). Taxonomy and definitions for terms related to driving automation systems for on-road motor vehicles (J3016). SAE International.
SAL, Report on Criminal Liability, Robotics and AI Systems (2021), DC 345.595704–dc23,
p. [4.26].
Schuller, A. L. (2019). Artificial Intelligence effecting human decisions to kill: The challenge of linking numerically quantifiable goals to IHL compliance. Journal of Law and Policy for the Information Society, 15, p. 115.
Scottish Law Commission. (2022). Automated Vehicles: Consultation Paper 3 – A regulatory framework for automated vehicles. A joint consultation paper (Law Com No 258), Consultation Paper No 252.
Singapore Academy of Law Reform Committee, Report on Criminal Liability, Robotics and AI Systems (2021), DC 345.595704–dc23.
Smiley, L. (2022, March 8). "I’m the Operator": The Aftermath of a Self-Driving Tragedy. Wired. Retrieved from https://www.wired.com/story/uber-self-driving-car-fatal-crash
Society for Automotive Engineers International (SAE). (2021). J3016 Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles.
Thompson Chengeta, R. (2016). Accountability Gap: Autonomous Weapon Systems and Modes of Responsibility in International Law. Denver Journal of International Law & Policy, 45, 19.
Vincent, N. (2011). A structured taxonomy of responsibility concepts. In N. A. Vincent, I. van de Poel, & J. van den Hoven (Eds.), Moral Responsibility: Beyond Free Will and Determinism (Vol. 27, pp. 211 ff). Springer Netherlands.
Vincent, N. (2011). A structured taxonomy of responsibility concepts. Springer Netherlands,
p. 21.
Williams, R. (2017). Lords Select Committee, Artificial Intelligence Committee, Written Evidence (AIC0206). Retrieved from:        
http://data.parliament.uk/writtenevidence/committeeevidence.svc/evidencedocument/artificialintelligencecommittee/artificialintelligence/written/70496.html#_ftn13
CAPTCHA Image