Những sai lầm tệ hại của trí tuệ nhân tạo

VB 19/06/2024
Trí tuệ nhân tạo đã gặp phải nhiều sai lầm tệ hại, từ lời khuyên không chính xác đến phân biệt đối xử và các vụ tai nạn thảm họa.

Từ các chatbot đưa ra lời khuyên y tế đến phần mềm nhận dạng khuôn mặt của các nghị sỹ quốc hội là tội phạm… là những sai lầm tệ hại mà trí tuệ nhân tạo (AI) đã từng mắc phải.

Nỗi sợ hãi về trí tuệ nhân tạo (AI) rất rõ ràng, đến nỗi đã xuất hiện một trường phái triết học công nghệ chuyên tìm ra cách AI có thể gây ra sự kết thúc của loài người.

Những sai lầm tệ hại của trí tuệ nhân tạo
Những sai lầm tệ hại của AI. Ảnh minh họa.

Dưới đây là danh sách những sai lầm tệ hại của AI:

Lời khuyên sai lầm của chatbot Air Canada

Air Canada đã phải ra tòa sau khi một trong những công cụ được hỗ trợ bởi AI của công ty đưa ra lời khuyên không chính xác về việc đảm bảo giá vé. Đối mặt với hành động pháp lý, đại diện của Air Canada lập luận rằng, họ không có lỗi trong việc chatbot của họ đã làm.

Bên cạnh thiệt hại lớn về mặt danh tiếng có thể xảy ra trong những tình huống như thế này, Air Canada buộc phải trả lại gần một nửa số tiền vé do sai sót này.

Lỗi triển khai của trang web NYC

Một chatbot có tên MyCity của thành phố New York, Mỹ, bị phát hiện đang khuyến khích các chủ doanh nghiệp thực hiện các hoạt động bất hợp pháp . Theo chatbot, bạn có thể lấy trộm một phần tiền boa của nhân viên, không dùng tiền mặt và trả cho họ ít hơn mức lương tối thiểu.

Từ chức hàng loạt do AI phân biệt đối xử

Vào năm 2021, các nhà lãnh đạo trong quốc hội Hà Lan, bao gồm cả thủ tướng, đã từ chức sau khi một cuộc điều tra phát hiện ra rằng trong 8 năm trước đó, hơn 20.000 gia đình đã bị lừa gạt do một thuật toán phân biệt đối xử.

Lời khuyên tai hại của chatbot y tế

Hiệp hội Rối loạn Ăn uống Quốc gia của Mỹ đã gây xôn xao khi tuyên bố sẽ thay thế con người bằng chương trình AI. Ngay sau đó, người sử dụng đường dây nóng của tổ chức này phát hiện ra rằng chatbot có biệt danh Tessa đang đưa ra những lời khuyên có hại cho những người mắc chứng rối loạn ăn uống .

Kết quả tìm kiếm phân biệt chủng tộc của Google Images

Google đã phải loại bỏ khả năng tìm kiếm khỉ đột trên phần mềm AI của mình sau khi kết quả tìm kiếm cho ra hình ảnh của người Da đen. Các công ty khác, bao gồm cả Apple, cũng phải đối mặt với các vụ kiện vì những cáo buộc tương tự.

Thảm họa xe không người lái

Những sai lầm tệ hại của trí tuệ nhân tạo
Xe tự lái có thể khiến gia tăng các vụ tai nạn.

Một vụ tai nạn vào tháng 10 năm 2023 đã khiến một người đi bộ bị thương nặng sau khi họ lao vào đường đi của xe hơi không người lái Cruise của GM.

Vào tháng 2 năm 2024, bang California cáo buộc Cruise đã đánh lừa các nhà điều tra về nguyên nhân và kết quả của vết thương.

Lỗ hổng trong tính năng bảo mật của Apple

Năm 2017, tính năng nhận diện bằng khuôn mặt Face ID của Apple được cho là bị đánh lừa bởi một trò lừa đảo khá đơn giản và đã có những lo ngại từ lâu rằng các công cụ của Apple có xu hướng hoạt động tốt hơn đối với những người da trắng .

Theo Apple, công nghệ này sử dụng mạng lưới thần kinh sâu trên thiết bị, nhưng điều này không tránh được những lo lắng về tác động của việc AI gắn chặt với bảo mật thiết bị.

Nhầm nghị sỹ quốc hội là tội phạm

Một phân tích năm 2018 của Liên minh Tự do Dân sự Mỹ cho thấy Rekognition AI của Amazon, một phần của Amazon Web Services, đã xác định sai 28 thành viên Quốc hội Mỹ thành những người đã từng bị bắt giữ. Lỗi này xảy ra với hình ảnh của các thành viên của cả hai đảng chính, nhất là người da màu.

Vụ bê bối tồi tệ nhất

Trong một trong những vụ bê bối tồi tệ nhất liên quan đến AI từng xảy ra với mạng lưới an toàn xã hội, chính phủ Úc đã sử dụng một hệ thống tự động để buộc những người nhận phúc lợi hợp pháp phải trả lại những khoản trợ cấp đó.

Hơn 500.000 người đã bị ảnh hưởng bởi hệ thống, được gọi là Robodebt, được áp dụng từ năm 2016 đến năm 2019. Chính phủ Úc đã phải đối mặt với các vấn đề pháp lý bổ sung xuất phát từ việc triển khai, bao gồm cả việc phải trả lại hơn 700 triệu đô la Úc (khoảng 460 triệu đô la Mỹ) cho các nạn nhân.

Tính năng giả mạo của AI

Những sai lầm tệ hại của trí tuệ nhân tạo
Công nghệ là deep fake là bảo bối của bọn lừa đảo.

Tính năng giả mạo sâu của AI đã được tội phạm mạng sử dụng để làm mọi thứ, từ giả mạo giọng nói của các ứng cử viên chính trị , tạo ra các cuộc họp báo thể thao giả mạo , tạo ra những hình ảnh người nổi tiếng chưa từng xảy ra...

Tuy nhiên, một trong những ứng dụng đáng lo ngại nhất của công nghệ là deep fake. Một công ty của Anh đã thua lỗ hơn 25 triệu USD sau khi một công nhân bị thuyết phục bởi một deepfake cải trang thành đồng nghiệp của anh ta để chuyển số tiền này.

Can thiệp bầu cử

Khi AI trở thành một nền tảng phổ biến để tìm hiểu tin tức thế giới, một xu hướng đáng lo ngại đang phát triển. Theo nghiên cứu của Bloomberg News, ngay cả những hệ thống AI chính xác nhất được thử nghiệm với các câu hỏi về bầu cử thế giới vẫn có 1/5 câu trả lời sai . Hiện tại, một trong những mối lo ngại lớn nhất là AI tập trung vào deepfake có thể được sử dụng để thao túng kết quả bầu cử .

AI và các vụ tai nạn máy bay

Trong ít nhất hai trường hợp, AI dường như đã đóng một vai trò trong các vụ tai nạn liên quan đến máy bay Boeing. Theo một cuộc điều tra của New York Times năm 2019, một hệ thống tự động đã được thiết kế mạnh hơn và rủi ro hơn, bao gồm việc loại bỏ các biện pháp an toàn có thể có. Những sai sót của AI đã dẫn đến cái chết của hơn 300 người.

VB