Seyednazari M, Gholizad Gougjehyaran H, Sohaili A, Drosti A, Asghari R. The Ethical and Legal Imperative in the Age of AI: Safeguarding Patient Data and Privacy in Healthcare. J Arak Uni Med Sci 2025; 28 (5)
URL:
http://jams.arakmu.ac.ir/article-1-8149-fa.html
سیدنظری میرامیرحسین، قلیزادگوگجه یاران حامد، سهیلی امین، درستی امیرمحمد، اصغری رسول. فراتر از الگوریتم: ضرورت تدوین قوانین اخلاقی برای حفظ حریم خصوصی دادههای سلامت در عصر هوش مصنوعی. مجله دانشگاه علوم پزشكي اراك. 1404; 28 (5)
URL: http://jams.arakmu.ac.ir/article-1-8149-fa.html
1- گروه پرستاری داخلی جراحی، دانشکده علوم پزشکی خوی، خوی، ایران
2- دانشجوی دکتری پرستاری، گروه پرستاری، دانشگاه علوم پزشکی تبریز، تبریز، ایران
3- دانشیار، گروه پرستاری، کمیته تحقیقات دانشجویی، دانشکده علوم پزشکی خوی، خوی، ایران
4- دانشجوی کارشناسی ارشد پرستاری داخلی و جراحی، کمیته تحقیقات و فناوری دانشجویی، دانشکده علوم پزشکی خوی، خوی، ایران ، amirdorosti2006@gmail.com
5- گروه پرستاری، دانشکده علوم پزشکی خوی، خوی، ایران
چکیده: (21 مشاهده)
ادغام سریع هوش مصنوعی (AI) در علوم پزشکی، هرچند با وعدههای تحولآفرین در تشخیص زودهنگام و درمانهای شخصیسازیشده همراه است (1)، اما یک چالش اخلاقی و حقوقی عمیق را به همراه دارد: مدیریت حجم عظیم، حساس و بیسابقه دادههای سلامت و حفظ حریم خصوصی بیماران. ماهیت این دادهها، که شامل سوابق بالینی، تصاویر رادیولوژی، دادههای ژنتیکی و حتی اطلاعات پوشیدنیهای سلامت فردی است (2)، فراتر از اطلاعات هویتی سنتی است و قابلیت بازسازی پروفایل کامل یک فرد را داراست؛ امری که هویتزدایی کامل و دائم آنها را عملاً ناممار میسازد (1).
این حجم گسترده از اطلاعات به سوخت اصلی الگوریتمهای یادگیری عمیق تبدیل شده است، اما هر گونه نقض یا افشا، میتواند منجر به تبعیض جدی در دسترسی به بیمه، استخدام و حتی تصمیمگیریهای قضایی شود (2). فقدان شفافیت (Transparency) در مورد چگونگی پردازش و تحلیل این دادهها توسط الگوریتمها، که اغلب به صورت "جعبه سیاه" عمل میکنند، اعتماد بیماران و پزشکان را تضعیف میکند (3). کادر درمان نمیتوانند فرآیند تصمیمگیری هوش مصنوعی را درک کنند، و این مسئله نه تنها مانع از پذیرش بالینی میشود، بلکه یک منطقه خاکستری حقوقی در مورد مسئولیتپذیری در صورت بروز خطای تشخیصی یا درمانی ایجاد میکند (4).
چالش حقوقی موجود در این است که قوانین فعلی حریم خصوصی برای مواجهه با الگوریتمهای پیشرفته و جمعآوری دادههای لحظهای طراحی نشدهاند (1, 4). هوش مصنوعی با ایجاد روشهای نوین استخراج دانش از دادههای خام، دائماً از چارچوبهای قانونی موجود پیشی میگیرد. علاوه بر این، ابزارهای هوش مصنوعی به دلیل اتکا به شبکههای دادهای بزرگ، در معرض حملات سایبری پیشرفته قرار دارند، که میتواند منجر به افشای گروهی دادههای محرمانه شود (5). در نتیجه، در غیاب یک چارچوب حکمرانی دادههای محکم و بهروز، پتانسیل هوش مصنوعی برای بهبود سلامت عمومی با خطر تضعیف کرامت انسانی و نقض حقوق بنیادی بیمار همراه است (6).
برای تضمین اینکه نوآوریهای هوش مصنوعی با رعایت اصول اخلاقی و حقوقی پیش میرود، ضروری است که اقداماتی عاجل در جهت ایجاد یک چارچوب نظارتی جامع صورت پذیرد. این امر نیازمند تدوین یک مدل جدید و پویا از رضایت آگاهانه است که فراتر از رضایت یکباره باشد و به بیماران اجازه دهد تا بر نحوه استفاده از دادههایشان در مراحل مختلف آموزش و بهکارگیری هوش مصنوعی کنترل مستمر و آگاهانه داشته باشند. همزمان، باید توسعهدهندگان را موظف کرد که حفاظت از حریم خصوصی را در هسته طراحی هر ابزار هوش مصنوعی قرار دهند، که به معنای استفاده از تکنیکهای پیشرفته حفظ حریم خصوصی مانند حریم خصوصی تفاضلی و یادگیری فدرال برای پردازش دادهها در محل است. علاوه بر این، باید با تشکیل یک نهاد نظارتی چند رشتهای متشکل از متخصصان اخلاق، حقوق، علوم کامپیوتر و بالینی، هر ابزار هوش مصنوعی قبل از ورود به محیط بالینی، تحت یک فرآیند ارزیابی و تأیید اخلاقی و فنی دقیق و شفاف قرار گیرد تا از تعصبات احتمالی و خطاهای الگوریتمی جلوگیری شود.این اقدامات نه تنها بیماران را در برابر سوءاستفاده محافظت میکند، بلکه اعتماد لازم برای پیشبرد پایدار و ایمن این فناوری حیاتی را نیز در جامعه فراهم میآورد.
نوع مطالعه:
نامه به سردبیر |
موضوع مقاله:
عمومى دریافت: 1404/7/24 | پذیرش: 1404/8/18