
Người dùng tra cứu cách chữa bệnh qua AI.
Các nhà khoa học cảnh báo AI có thể hữu ích nhưng tiềm ẩn rủi ro nghiêm trọng vì nó không thể thay thế bác sĩ.
“Bác sĩ Google” thế hệ mới
“Bệnh lupus là gì?”, “Cúm kéo dài bao lâu?”, “Trĩ có cần mổ không?” là những câu hỏi như vậy từng xuất hiện trên Google. Tuy nhiên, ngày nay, người dùng đã hỏi trực tiếp ChatGPT và các chatbot AI. Với khả năng trả lời trôi chảy, có vẻ hợp lý và gần như tức thì, các mô hình trí tuệ nhân tạo đang nhanh chóng trở thành nơi nhiều người tìm đến đầu tiên khi có vấn đề về sức khỏe.
Một khảo sát thực hiện tại Australia vào giữa năm 2024 cho thấy cứ 10 người thì có một người từng hỏi vấn đề y tế qua ChatGPT. Đáng chú ý, gần 2/3 trong số này đặt ra các câu hỏi vốn dĩ cần được tư vấn trực tiếp bởi bác sĩ hoặc chuyên gia y tế. Theo chuyên gia Julie Ayre, làm việc tại Đại học Sydney (Australia), AI trở nên phổ biến vì “có thể đưa ra câu trả lời nhanh chóng cho bất kỳ câu hỏi nào”. Thế nhưng đi kèm với đó luôn là nguy cơ những câu trả lời ấy có thể sai.
Nhiều nhà khoa học đồng tình rằng những mô hình ngôn ngữ lớn như ChatGPT không đủ đáng tin để đảm nhiệm vai trò chẩn đoán hay tư vấn điều trị. Một nghiên cứu năm 2024 đã đưa cho ChatGPT 3.5 tổng cộng 150 hồ sơ bệnh án, bao gồm tiền sử bệnh, triệu chứng và kết quả xét nghiệm thực tế, rồi yêu cầu nó đưa ra chẩn đoán và hướng điều trị. Kết quả là AI chỉ trả lời đúng trong 49% trường hợp.
Như vậy, ChatGPT “không nhất thiết đưa ra thông tin chính xác, dù được huấn luyện trên một lượng dữ liệu khổng lồ”. Một nghiên cứu khác cũng cho rằng, mô hình này không thể cung cấp lời khuyên y tế cá nhân hóa một cách đáng tin cậy, dù có thể hữu ích trong việc cung cấp thông tin nền tảng.
Sự khác biệt giữa các phiên bản cũng cho thấy tính bất ổn của công nghệ. Năm 2023, khi được hỏi vì sao cần điều trị chứng vàng da do sỏi mật, ChatGPT 3.5 trả lời rằng việc điều trị giúp cải thiện ngoại hình và sự tự tin của bệnh nhân. Đây là một lý do hoàn toàn không đúng về mặt lâm sàng.
Bác sĩ Sebastian Staubli, người đứng đầu nghiên cứu về sức khỏe AI tại Anh, cho biết đó là một câu trả lời “nghe có vẻ hợp lý, nhưng sai bản chất”. Phiên bản ChatGPT 4.0 sau đó đã đưa ra câu trả lời tốt hơn, nhấn mạnh nguy cơ tổn thương nội tạng nếu không điều trị. Sự cải thiện này cho thấy câu trả lời của AI có thể thay đổi theo phiên bản và không có gì đảm bảo tính nhất quán y khoa.

Tìm cách chữa bệnh qua AI thay vì đi khám bác sĩ.
Cách AI “hiểu” thế giới
Rủi ro không chỉ nằm ở dữ liệu, mà còn ở bản chất của trí tuệ nhân tạo. Các mô hình như ChatGPT không suy nghĩ, không phân tích và cũng không “cân nhắc” như con người. Chúng chỉ dự đoán từ tiếp theo có xác suất xuất hiện cao nhất dựa trên những gì đã học từ kho dữ liệu khổng lồ trên Internet.
Theo bác sĩ Staubli, các mô hình này được huấn luyện bằng “gần như mọi thứ mà các trình thu thập dữ liệu có thể lấy được trên mạng”. Trong đó có cả những nguồn đáng tin cậy như WHO hay NHS, nhưng cũng lẫn vô số bài viết thiếu kiểm chứng, thảo luận trên diễn đàn, hoặc thông tin lỗi thời. Vấn đề là AI không thể phân biệt đâu là thông tin đã được kiểm chứng khoa học, đâu là quan điểm cá nhân hay thậm chí là sai lệch.
Nếu thông tin sai xuất hiện đủ nhiều, mô hình có thể coi đó là “chuẩn mực”. Và vì AI không hiểu khái niệm “bằng chứng y học” hay “tiêu chuẩn điều trị”, nó cũng không thể cảnh báo người dùng rằng một lời khuyên nào đó còn gây tranh cãi, chưa được kiểm chứng hoặc đã lỗi thời.
Trước làn sóng ứng dụng AI trong y tế, Tổ chức Y tế Thế giới (WHO) nhiều lần lên tiếng kêu gọi thận trọng. WHO cảnh báo rằng, AI tạo sinh có thể giúp phổ biến kiến thức sức khỏe, nhưng đồng thời cũng tiềm ẩn nguy cơ lan truyền thông tin sai lệch, thiên lệch và gây hiểu nhầm, đặc biệt khi người dùng coi những câu trả lời đó như tư vấn y khoa chính thức.
WHO nhấn mạnh rằng, các hệ thống AI không được phép thay thế bác sĩ, không nên được dùng để đưa ra quyết định điều trị, kê đơn thuốc hay chẩn đoán bệnh. Việc tự chẩn đoán dựa trên chatbot có thể khiến bệnh nhân trì hoãn việc đi khám, bỏ lỡ “thời gian vàng” điều trị, hoặc tệ hơn là tự dùng thuốc sai cách, dẫn đến biến chứng nguy hiểm.
Nhiều cơ quan y tế quốc gia cũng chia sẻ mối lo tương tự, đặc biệt trong lĩnh vực sức khỏe tâm thần, nơi những lời khuyên không phù hợp có thể gây hậu quả nghiêm trọng.
Trên thực tế, các mô hình như ChatGPT vẫn có giá trị nhất định. Chúng có thể giúp người dùng hiểu thuật ngữ y khoa, tóm tắt thông tin phức tạp, hoặc chuẩn bị câu hỏi trước khi đi khám. Nghiên cứu tại Australia cho thấy những người có khả năng tiếp cận thông tin y tế hạn chế hoặc gặp rào cản ngôn ngữ thường thấy AI hữu ích trong việc “giải mã” ngôn ngữ chuyên môn.
Bản thân bác sĩ Staubli cũng thừa nhận rằng các công cụ này có thể “trao quyền” cho bệnh nhân bằng cách giúp họ hiểu rõ hơn về tình trạng của mình. Tuy nhiên ông nhấn mạnh, bệnh nhân cần luôn ý thức rằng chất lượng thông tin có thể không chính xác.
Điều quan trọng nhất mà AI không thể làm được là đặt thông tin đó vào bối cảnh lâm sàng cụ thể của từng con người như tiền sử bệnh, khám trực tiếp, xét nghiệm và kinh nghiệm bác sĩ đóng vai trò quyết định.
Ngay cả ChatGPT cũng thừa nhận giới hạn của chính mình. Nó có thể cung cấp thông tin chung về sức khỏe, nhưng không thể thay thế lời khuyên y tế chuyên nghiệp. Trong bối cảnh AI ngày càng thông minh và thuyết phục, ranh giới giữa “tham khảo” và “tin tuyệt đối” đang trở nên mờ đi và đó chính là điều nguy hiểm nhất.

Bình luận
TVQuản trị viênQuản trị viên
Xin chào quý khách. Quý khách hãy để lại bình luận, chúng tôi sẽ phản hồi sớm