Tới bài học này, chắc chắn bạn đã sử dụng AI trong việc học, tìm hiểu và hỗ trợ bạn trong cuộc sống hàng ngày.
Trên thế giới, con người đã ứng dụng AI vào hầu hết các lĩnh vực. Thực tế, việc sử dụng AI sẽ không tránh khỏi những rủi ro, những hệ quả xấu, những kết quả ngoài ý muốn.
Chúng ta cùng xem xét một số tình huống sử dụng cụ thể, qua đó bạn sẽ biết được:
- Những rủi ro, những mặt trái khi sử dụng AI
- Tại sao lại có những rủi ro, mặt trái như vậy
- Chúng ta cần làm gì để hạn chế hoặc tránh những rủi ro và mặt trái đó
6.1 Câu chuyện liên quan đến tuyển dụng
Phần mềm tuyển dụng của Amazon “ghét phụ nữ”?
Câu chuyện đã xảy ra như sau:
- Amazon là tập đoàn công nghệ đa quốc gia hàng đầu thế giới, của Mỹ, nổi tiếng nhất với nền tảng thương mại điện tử và dịch vụ điện toán đám mây, có khoảng hơn 1 triệu nhân viên (2026)
- Amazon bắt đầu phát triển công cụ AI để tuyển dụng nhân sự từ năm 2014
- Công cụ AI có thuật toán được huấn luyện trên dữ liệu tuyển dụng của công ty trong khoảng 10 năm trước đó
- Vì ngành công nghệ (đặc biệt là các vị trí kỹ thuật) tại Amazon có tỷ lệ nam giới rất cao trong lịch sử tuyển dụng, do vậy, dữ liệu huấn luyện chủ yếu là các hồ sơ của nam giới. Dựa trên dữ liệu, AI "học" được rằng nam giới thì có nhiều ưu điểm và thành công hơn
- Hệ quả là công cụ tuyển dụng tự động trừ điểm các CV (curriculum vitae - hồ sơ ứng viên) chứa từ “nữ giới” (women's) (ví dụ: "women's chess club captain" hoặc "women's rugby team"), và đánh giá thấp ứng viên tốt nghiệp từ các trường đại học dành riêng cho nữ giới (như women's colleges)
- Đến khoảng năm 2015, đội ngũ của Amazon đã phát hiện vấn đề “thiên vị” giới tính như trên
- Họ cố gắng chỉnh sửa (ví dụ: làm cho thuật toán trung lập với từ "women's"), nhưng AI vẫn tìm cách khác để ưu tiên nam giới (vì việc “thiên vị” đã nằm sẵn trong dữ liệu và mô hình)
- Cuối cùng, Amazon hủy bỏ dự án vào đầu năm 2017
Qua câu chuyện trên, chúng ta rút ra được một số bài học:
- Dữ liệu đầu vào quyết định chất lượng đầu ra, AI không tự sinh ra kiến thức, nó chỉ là một chiếc gương phản chiếu dữ liệu mà nó được học. Nếu dữ liệu đầu vào có định kiến, có thiên vị thì kết quả AI trả về sẽ mang định kiến và thiên vị đó.
- Khi bạn dùng AI để tìm kiếm thông tin, hãy nhớ rằng nó có thể đang phản chiếu những quan điểm phiến diện từ Internet. Đừng coi mọi câu trả lời của AI là "chân lý" khách quan.
- Kết luận của AI chưa chắc đã công bằng và khách quan.
6.2 Chuyện liên quan đến sự cố do AI gây ra
Xe tự lái của hãng Uber gây tai nạn:
- Đêm 18/3/2018, tại Tempe, Arizona (Mỹ). Chiếc Volvo XC90 của Uber đang chạy thử nghiệm ở chế độ tự lái, tốc độ khoảng 63 km/h, có một người giám sát an toàn trên xe
- Bà Elaine Herzberg (49 tuổi) đang dắt xe đạp băng ngang đường ở khu vực tối, không có vạch kẻ đường
- Sai lầm của AI tích hợp trên xe:
+ Phát hiện vật thể từ 6 giây trước va chạm
+ Ban đầu nhận diện là "vật thể lạ", sau đó là "xe hơi", chỉ 1 giây trước mới nhận ra là người dắt xe đạp
+ Hệ thống không thiết kế để xử lý người đi bộ băng đường không đúng chỗ
+ Uber đã tắt chức năng thắng khẩn cấp tự động để tránh xe giật cục do báo động giả, do vậy xe không tự thắng kịp thời
- Người giám sát mải xem video trên điện thoại, không chú ý đường. Khi phát hiện thì đã quá muộn để can thiệp
- Hậu quả: Bà Herzberg tử vong tại chỗ. Đây là trường hợp người đi bộ đầu tiên thiệt mạng do xe tự lái. Uber tạm dừng toàn bộ chương trình thử nghiệm, đối mặt điều tra pháp lý. Người giám sát sau đó bị buộc tội.
Qua câu chuyện trên, chúng ta rút ra được một số bài học:
- Con người là lớp bảo vệ cuối cùng: Dù hệ thống có hiện đại đến đâu, sự giám sát của con người vẫn là yếu tố quyết định. Không bao giờ được phó mặc hoàn toàn sự an toàn hoặc các quyết định quan trọng cho AI. Khi sử dụng AI (trong học tập hay công việc), bạn phải luôn giữ vai trò là người kiểm duyệt cuối cùng.
- Không đánh đổi an toàn lấy sự tiện lợi: Uber đã tắt hệ thống phanh khẩn cấp chỉ để xe chạy "mượt" hơn và tránh các báo động giả. Trong thiết kế AI, các nguyên tắc đạo đức và an toàn phải được ưu tiên hàng đầu, ngay cả khi nó làm giảm hiệu suất hoặc trải nghiệm người dùng. Việc thỏa hiệp với rủi ro để đạt được sự tiện nghi là hành vi thiếu trách nhiệm.
- Giới hạn của dữ liệu huấn luyện: Hệ thống của Uber gặp khó khăn vì bà Herzberg dắt xe đạp băng qua đường ở nơi không có vạch kẻ — một tình huống mà thuật toán có thể chưa được học kỹ. AI chỉ mạnh trong những gì nó đã được học. Thế giới thực luôn có những tình huống bất ngờ mà dữ liệu quá khứ không bao quát hết được. Do vậy, đừng mặc định AI biết hết mọi thứ. Hãy luôn lường trước các sai số và lỗ hổng kiến thức của AI trong các tình huống thực tế phức tạp.
- Trách nhiệm giải trình: Khi tai nạn xảy ra, câu hỏi "Ai chịu trách nhiệm?" trở nên vô cùng nhức nhối. Sử dụng AI có trách nhiệm nghĩa là phải xác định rõ trách nhiệm pháp lý và đạo đức ngay từ đầu. Người giám sát trong câu chuyện đã bị buộc tội, cho thấy dù máy tính gây ra lỗi, con người vẫn phải gánh vác trách nhiệm cuối cùng.
6.3 Chuyện liên quan đến chẩn đoán bệnh
"Bác sĩ" AI của IBM và những đơn thuốc sai lệch
- Phần mềm IBM Watson từng được kỳ vọng là một cuộc cách mạng, có khả năng đọc hàng triệu bệnh án và nghiên cứu y khoa để đưa ra phác đồ điều trị ung thư tối ưu cho từng bệnh nhân
- Đến năm 2018, các báo cáo nội bộ bị rò rỉ cho thấy hệ thống này thường xuyên đưa ra các khuyến nghị điều trị "không an toàn và sai lệch"
- Nguyên nhân là do sự thiếu trách nhiệm:
+ Thay vì học từ bệnh án thực tế của bệnh nhân, các kỹ sư lại huấn luyện AI dựa trên các tình huống giả định do một nhóm nhỏ bác sĩ tự đưa ra. AI đã học theo kinh nghiệm cá nhân của vài người thay vì thực tế khách quan của hàng triệu bệnh nhân
+ AI được huấn luyện chủ yếu tại một bệnh viện ở Mỹ, dẫn đến việc nó đưa ra những phác đồ điều trị không phù hợp (hoặc quá đắt đỏ) cho bệnh nhân ở các quốc gia có điều kiện y tế khác
- Hậu quả là, trong một số trường hợp, AI đã đề xuất các loại thuốc gây xuất huyết nặng cho những bệnh nhân vốn đang bị triệu chứng này – một sai lầm chết người trong y khoa. May mắn là các bác sĩ đã kịp thời phát hiện và chưa có ca tử vong nào trực tiếp từ phác đồ của AI, nhưng dự án trị giá hàng tỷ USD này đã bị thu hẹp đáng kể
Qua câu chuyện trên, chúng ta rút ra được một số bài học:
- Tính chính xác là ưu tiên hàng đầu: Trong y khoa, sai số 1% của AI không chỉ là một con số thống kê, đó là sinh mạng. Sử dụng AI có trách nhiệm nghĩa là phải kiểm chứng dữ liệu đầu vào cực kỳ khắt khe
- AI chỉ là công cụ hỗ trợ: AI không được phép thay thế bác sĩ ra quyết định cuối cùng. Nó chỉ nên đóng vai trò cung cấp thêm thông tin để bác sĩ tham khảo
- Tính minh bạch: Một bác sĩ không thể kê đơn chỉ vì "AI bảo thế". AI có trách nhiệm phải giải thích được tại sao nó đưa ra chẩn đoán đó để con người có thể kiểm tra lại logic của thuật toán
6.4 Câu chuyện về các bài báo giả mạo
“Cơn lũ” nghiên cứu rác
- Với sự ra đời của các mô hình ngôn ngữ lớn (LLM) và AI tạo ảnh, việc viết một bài báo khoa học trở nên dễ dàng hơn bao giờ hết. Một số "xưởng sản xuất bài báo" đã lợi dụng điều này để trục lợi
- Sự cố điển hình (2024): Một bài báo về tế bào gốc, tác giả là 3 nhà nghiên cứu người Trung Quốc, được đăng trên tạp chí khoa học uy tín Frontiers in Cell and Developmental Biology đã gây chấn động. Bài báo có những hình ảnh minh họa do AI tạo ra mô tả một con chuột với bộ phận sinh dục khổng lồ và các biểu đồ chứa những từ ngữ vô nghĩa, sai chính tả hoàn toàn
- Dù vậy, bài báo vẫn lọt qua vòng kiểm duyệt của các chuyên gia và được xuất bản công khai. Khi bị cộng đồng mạng phát hiện và chế giễu, tạp chí đã phải gỡ bỏ bài báo ngay lập tức. Sự việc này làm dấy lên làn sóng lo ngại về việc AI đang bị dùng để "ngụy tạo" tri thức.
- Vấn đề nằm ở chỗ, không chỉ tạo ra hình ảnh, AI còn được dùng để viết các đoạn văn nghe rất chuyên nghiệp nhưng nội dung trống rỗng hoặc trích dẫn các tài liệu không tồn tại (Ảo giác AI), khiến các nhà nghiên cứu khác nếu tin theo sẽ đi sai hướng hoàn toàn
Qua câu chuyện trên, chúng ta rút ra được một số bài học:
- Tính trung thực học thuật: Sử dụng AI để hỗ trợ tìm kiếm tài liệu là tốt, nhưng dùng AI để viết thay hoặc tạo dữ liệu giả là hành vi vi phạm đạo đức nghiêm trọng. Nghiên cứu khoa học đòi hỏi sự thật
- Trách nhiệm kiểm duyệt của con người: Trong vụ việc trên, lỗi không chỉ ở AI mà còn ở các chuyên gia kiểm duyệt đã quá lơ là hoặc quá tin vào định dạng chuyên nghiệp của bài báo mà AI tạo ra. AI càng phát triển, con người càng phải kiểm soát chặt chẽ hơn
- Sự minh bạch về công cụ: Sử dụng AI có trách nhiệm trong nghiên cứu nghĩa là phải khai báo rõ ràng: "Phần nào do AI hỗ trợ? Thuật toán nào đã được dùng?". Sự che giấu chính là khởi đầu của sự thiếu trách nhiệm
- Bảo vệ sự liêm chính trong nghiên cứu: Một nghiên cứu sai lệch có thể dẫn đến hàng nghìn nghiên cứu sai lệch khác tiếp nối. Trách nhiệm của mỗi cá nhân là đảm bảo AI không trở thành công cụ để "nhân bản" những thông tin rác vào kho tàng kiến thức chung.
6.5 Quy tắc "3W" để sử dụng AI có trách nhiệm
Để đảm bảo việc sử dụng AI mang lại giá trị thực thay vì rủi ro, trước khi tin tưởng vào một kết quả từ máy tính, bạn hãy tự đặt ra 3 câu hỏi sau:
- Who (nguồn gốc và trách nhiệm): Bạn cần tự hỏi "Dữ liệu này từ đâu ra?". Hãy luôn nhớ rằng AI chỉ tổng hợp dựa trên dữ liệu sẵn có; do đó, nếu thông tin sai lệch dẫn đến hậu quả, AI không thể đứng ra chịu tội. Chính bạn mới là người chịu trách nhiệm cuối cùng khi sử dụng và công bố kết quả đó
- Why (tính minh bạch và xác thực): Đừng chấp nhận câu trả lời mà không có cơ sở. Hãy đặt câu hỏi: "Tại sao AI lại đưa ra kết luận như vậy? Có bằng chứng hay nguồn trích dẫn xác thực nào đi kèm không?". Một hệ thống AI có trách nhiệm phải đảm bảo tính minh bạch, giúp con người hiểu được logic đằng sau mỗi câu trả lời
- What (hệ quả và công bằng): Trước khi hành động dựa trên kết quả của AI, hãy cân nhắc: "Nếu mình dùng kết quả này, nó có gây hại, gây hiểu lầm hay tạo ra sự bất công cho bất kỳ cá nhân hay nhóm đối tượng nào không?". Đây là bước quan trọng để ngăn chặn sự thiên vị và bảo vệ các giá trị đạo đức trong môi trường số
6.5 Bài tập và câu hỏi
Bài tập
Bài tập 6a. Hãy đóng vai là một người sử dụng AI có trách nhiệm (áp dụng quy tắc 3W: Who - Why - What). Bạn nhận được một kết quả chẩn đoán bệnh từ một chatbot AI. Hãy viết ra 3 câu hỏi cụ thể bạn sẽ đặt ra cho AI hoặc chính mình để kiểm chứng kết quả đó trước khi quyết định tin theo.
Bài tập 6b. Giả sử bạn là một chuyên gia tư vấn cho Amazon sau sự cố phần mềm uyển dụng bị hủy bỏ. Hãy phân tích "chuỗi sai lầm" dẫn đến kết quả thiên vị giới tính. Theo bạn, sai lầm nằm ở dữ liệu đầu vào, ở cách AI học tập, hay ở sự thiếu giám sát của con người? Hãy chỉ ra một yếu tố mà nếu thay đổi ngay từ đầu, kết quả có thể đã khác.
Bài tập 6c. Hãy kết nối bài học từ vụ tai nạn xe tự lái của Uber và sự cố chẩn đoán sai của IBM Watson để xây dựng một "Bộ quy tắc đạo đức" gồm 5 điều ngắn gọn dành cho các kỹ sư phát triển AI. Bộ quy tắc này phải giải quyết được cả hai vấn đề: Sự an toàn tính mạng (từ vụ Uber) và tính chính xác của tri thức/dữ liệu (từ vụ IBM).
Câu hỏi:
Câu hỏi 6.1: Trong vụ tai nạn xe tự lái của Uber năm 2018, nguyên nhân kỹ thuật trực tiếp khiến xe không tự dừng lại khi phát hiện vật thể là gì?
A. Hệ thống cảm biến bị hỏng hoàn toàn do trời tối
B. AI không phát hiện ra bất kỳ vật thể nào trên đường
C. Uber đã tắt chức năng phanh khẩn cấp tự động để tránh xe chạy giật cục
D. Xe bị mất kiểm soát hệ thống lái
Câu hỏi 6.2: Bài học lớn nhất về "Con người là lớp bảo vệ cuối cùng" qua các sự cố AI là gì?
A. AI đã đủ thông minh để con người có thể nghỉ ngơi hoàn toàn
B. Con người phải luôn giữ vai trò kiểm duyệt và chịu trách nhiệm cuối cùng, không phó mặc hoàn toàn cho máy móc
C. Chỉ cần dữ liệu đầu vào chuẩn xác là con người không cần can thiệp
D. AI luôn luôn đúng, nếu có sai sót là do lỗi của người vận hành máy tính
Câu hỏi 6.3: Khi bạn dùng AI để viết một bài báo nghiên cứu, hành động nào sau đây thể hiện việc sử dụng AI có trách nhiệm?
A. Để AI viết toàn bộ và nộp bài ngay để kịp thời hạn
B. Sử dụng hình ảnh do AI tạo ra mà không kiểm tra tính chính xác của dữ liệu khoa học
C. Sử dụng AI để gợi ý cấu trúc bài viết, sau đó tự mình kiểm chứng các nguồn trích dẫn và ghi rõ sự hỗ trợ của AI trong bài
D. Sao chép nguyên văn các lập luận của AI vì tin rằng AI đã đọc hết hàng triệu bài báo