Khi AI được dùng vào việc ác độc

Với những tiến bộ trong ngành trí tuệ nhân tạo (AI), các nguy cơ hacker sử dụng các công nghệ đó để tung ra các cuộc tấn công độc ác đang tăng lên, các nhà nghiên cứu hàng đầu cảnh báo trong một báo cáo công bố hôm 21/2/2018.

Họ có thể biến các máy bay không người lái dành cho người tiêu dùng và các xe tự hành thành các vũ khí tiềm năng, chẳng hạn, theo các nhà nghiên cứu từ các đại học như Oxford, Cambridge và Yale, cũng như các tổ chức như Open-AI do Elon Musk tài trợ.

Báo cáo “Sử dụng trí tuệ nhân tạo vào việc ác” cảnh báo về những đe doạ an ninh khác nhau khi lợi dụng AI. Chẳng hạn, các chiếc xe tự hành có thể bị lừa khi hiểu sai một tín hiệu dừng, có thể gây tai nạn giao thông, trong khi một đám máy bay không người lái do một hệ thống AI kiểm soát, có thể được dùng để giám sát hoặc tung ra các cuộc tấn công chớp nhoáng và liên hoàn, báo cáo cho biết. Các máy thông minh, theo báo cáo, có thể hạ thấp chi phí tiến hành các cuộc tấn công mạng bằng cách tự động hoá các nhiệm vụ nào đó tốn nhiều công sức lao động và có hiệu quả hơn trong việc xác định các mục tiêu tiềm năng.

AI có thể là biến cố tồi tệ nhất trong lịch sử văn minh của chúng ta.
AI có thể là biến cố tồi tệ nhất trong lịch sử văn minh của chúng ta.

Một ví dụ báo cáo chỉ ra là “tấn công lừa đảo”, qua đó các kẻ tấn công sử dụng thông điệp cá nhân vào mỗi một mục tiêu tiềm năng, nhằm ăn cắp thông tin nhạy cảm hoặc tiền bạc. “Nếu một số các nghiên cứu thích đáng và các công việc tổng hợp có thể được tự động hoá, nhiều người có thể tham gia vào tấn công lừa đảo”, các nhà nghiên cứu nhận định.

Trên mặt trận chính trị, AI có thể được sử dụng để giám sát, tạo ra tuyên truyền đúng mục tiêu hơn và lan truyền thông tin sai. Chẳng hạn, “những video thực tế cao” chiếu hình ảnh các nhà lãnh đạo quốc gia đưa ra các bình luận kích động mà họ không bao giờ từng làm. “Chúng tôi cũng dự báo các cuộc tấn công mới nhờ vào tiến bộ của khả năng phân tích hành vi con người, tâm trạng, và niềm tin dựa trên các dữ liệu cho sẵn”, báo cáo dự liệu. AI đã có thể được khai thác để tạo ra hình ảnh giả, chồng lên người khác bằng video.

Chẳng hạn, video có tên là “deepfake” lồng một khuôn mặt người trong các phim khiêu dâm dành cho người lớn. Mới đây các trang mạng lớn đã bắt đầu thực hành việc này. Các chuyên gia cho rằng các kịch bản được nêu bật trong báo cáo không phải là những dự đoán chính xác về việc AI bị lợi dụng có hại như thế nào – một số kịch bản có thể xảy ra trong năm năm tới, trong khi những kịch bản khác đã diễn ra ở mức độ ít nhiều hạn chế. “Những sử dụng độc hại khác chắc chắn sẽ được phát hiện mà chúng tôi không tiên đoán được”, báo cáo khẳng định.

Báo cáo hôm 21/2 đã không đưa ra bất kỳ cách thức cụ thể nào trong việc ngăn chận sử dụng AI gây ác. Nhưng chỉ cung cấp một số khuyến nghị như kêu gọi hợp tác hơn nữa giữa các nhà làm chính sách và các nhà nghiên cứu, và kêu gọi sự can dự của nhiều bên liên quan để giải quyết việc lợi dụng AI. Mặc dầu công nghệ vẫn còn non trẻ, hàng tỷ đôla đã được chi cho việc phát triển các hệ thống AI.

International Data Corporation hồi năm ngoái đã dự báo vào năm 2021, chi tiêu toàn cầu về các hệ thống nhận thức và trí tuệ nhân tạo có thể lên đến 57,6 tỷ USD. AI được dự đoán lớn đến độ CEO của Google Sundar Pichai mới đây cho rằng, điều đó sẽ có một tác động còn sâu sắc hơn cả điện hoặc lửa – hai trong số các đổi mới phổ biến nhất trong lịch sử.

Đồng thời, cũng có nhiều người hoài nghi về AI. Nhà vật lý danh tiếng Stephen Hawking hồi năm ngoái cho rằng, AI có thể là “biến cố tồi tệ nhất trong lịch sử văn minh của chúng ta”, trừ phi xã hội tìm ra cách kiểm soát sự phát triển đó.

Leave a Reply

Your email address will not be published. Required fields are marked *