هوش مصنوعی اثبات قصور پزشکی را دشوار می‌کند
تاريخ : بيست و دوم مهر 1404 ساعت 14:55   کد : 402212
افزایش نقش هوش مصنوعی در حوزه پزشکی، نگرانی‌هایی را درباره مسائل مربوط به مسئولیت و اثبات قصور پزشکی ایجاد می‌کند.

به گزارش ایسنا، کارشناسان هشدار داده‌اند که استفاده از هوش مصنوعی در مراقبت‌های بهداشتی می‌تواند هنگام تعیین مسئولیت و اثبات قصور پزشکی، یک بازی پیچیده قانونی را برای مقصریابی ایجاد کند.

به نقل از گاردین، توسعه هوش مصنوعی برای استفاده بالینی رونق گرفته است و فناوری‌های بسیاری برای این هدف ارائه می‌شوند؛ از الگوریتم‌هایی برای کمک به تفسیر اسکن‌ها گرفته تا سیستم‌هایی که می‌توانند به تشخیص بیماری کمک کنند. همچنین، هوش مصنوعی برای کمک به مدیریت بیمارستان‌ها از بررسی ظرفیت تخت‌ها گرفته تا مقابله با زنجیره‌های تأمین، در حال توسعه است.

اگرچه کارشناسان می‌گویند هوش مصنوعی می‌تواند مزایای بی‌شماری را برای مراقبت‌های بهداشتی به همراه داشته باشد اما نگرانی‌هایی نیز وجود دارد؛ از عدم آزمایش اثربخشی فناوری‌های هوش مصنوعی گرفته تا ایجاد پرسش‌هایی درباره این که در صورت بروز نتیجه منفی برای بیمار، چه کسی مسئول خواهد بود. پروفسور «درک آنگوس»(Derek Angus) پژوهشگر «دانشگاه پیتسبرگ»(University of Pittsburgh) گفت: قطعاً مواردی وجود خواهد داشت که در آنها مشکلی پیش بیاید و مردم به دنبال مقصر ‌بگردند.

«اجلاس جاما»(JAMA Summit) درباره هوش مصنوعی که سال گذشته توسط «مجله انجمن پزشکی آمریکا»(Journal of the American Medical Association) برگزار شد، مجموعه‌ای را متشکل از متخصصان از جمله پزشکان، شرکت‌های فناوری، نهادهای نظارتی، بیمه‌گران، اخلاق‌گرایان، وکلا و اقتصاددانان گرد هم آورد.

گزارش حاصل که آنگوس پژوهشگر ارشد آن است، نه تنها به ماهیت فناوری‌های هوش مصنوعی و حوزه‌ مراقبت‌های بهداشتی مورد استفاده در آنها می‌پردازد، بلکه چالش‌های ایجادشده توسط آنها از جمله نگرانی‌های قانونی را نیز بررسی می‌کند.

پروفسور «گلن کوهن»(Glenn Cohen) پژوهشگر «دانشکده حقوق هاروارد»(Harvard law school) و از پژوهشگران این پروژه گفت: بیماران ممکن است در اثبات نقص در استفاده یا طراحی یک محصول هوش مصنوعی با مشکلاتی روبه‌رو شوند. ممکن است موانعی برای کسب اطلاعات درباره عملکرد داخلی آن پیش بیاید؛ در حالی که ارائه یک طرح جایگزین معقول برای محصول یا اثبات این که نتیجه ضعیف ناشی از سیستم هوش مصنوعی بوده است نیز می‌تواند چالش‌برانگیز باشد.

کوهن ادامه داد: تعامل بین طرفین نیز ممکن است چالش‌هایی را برای طرح دعوی ایجاد کند. آنها ممکن است یکدیگر را به عنوان طرف مقصر معرفی کنند یا توافقی را درباره تخصیص مجدد مسئولیت به صورت قراردادی داشته باشند یا دعاوی جبران خسارت داشته باشند.

پروفسور «میشل ملو»(Michelle Mello) پژوهشگر «دانشکده حقوق استنفورد»(Stanford law school) و از پژوهشگران این پروژه گفت: دادگاه‌ها برای حل مسائل حقوقی به خوبی مجهز هستند. مشکل این است که این کار زمان می‌برد و در روزهای اولیه با ناهماهنگی‌هایی همراه خواهد بود و این عدم قطعیت، هزینه‌ها را برای همه در اکوسیستم نوآوری و پذیرش هوش مصنوعی افزایش خواهد داد.

این گزارش نگرانی‌هایی را نیز درباره نحوه ارزیابی فناوری‌های هوش مصنوعی مطرح کرده و خاطرنشان ساخته است که بسیاری از آنها خارج از نظارت نهادهای نظارتی مانند «سازمان غذا و داروی آمریکا»(FDA) هستند.

آنگوس گفت: اثربخشی برای پزشکان معمولاً به معنای بهبود نتایج سلامت است اما هیچ تضمینی وجود ندارد که مرجع نظارتی بتواند این موضوع را اثبات کند. فناوری‌های هوش مصنوعی پس از عرضه ممکن است به روش‌های غیر قابل پیش‌بینی بسیاری در محیط‌های بالینی گوناگون با انواع متفاوتی از بیماران و توسط کاربرانی با سطوح متفاوت مهارت به کار گرفته شوند. تضمین بسیار کمی وجود دارد که آنچه در مرحله پیش‌تایید ایده خوبی به نظر می‌رسد، در واقع همان چیزی باشد که در عمل به دست می‌آورید.

این گزارش بیان می‌کند که در حال حاضر موانع بسیاری برای ارزیابی فناوری‌های هوش مصنوعی وجود دارد؛ از جمله این که اغلب برای ارزیابی کامل باید در مراکز درمانی مورد استفاده قرار بگیرند. این در حالی است که روش‌های کنونی ارزیابی، گران و دست‌وپاگیر هستند.

آنگوس گفت: مهم است که بودجه‌ای برای ارزیابی درست عملکرد فناوری‌های هوش مصنوعی در حوزه مراقبت‌های بهداشتی در نظر گرفته شود و سرمایه‌گذاری در زیرساخت‌های دیجیتال، یک حوزه کلیدی باشد. یکی از مواردی که در طول اجلاس جما مطرح شد، این بود که فناوری‌های ارزیابی‌شده‌ به بهترین شکل، کمترین میزان پذیرش را داشته‌اند. فناوری‌هایی که بیشترین پذیرش را دارند، کمترین میزان ارزیابی را داشته‌اند.