Giải mã việc AI 'bất lực' trong việc ngăn chặn các video cực đoan

Trong thời đại công nghệ, đặc biệt là trí tuệ nhân tạo (AI) lên ngôi, các ứng dụng đã có thể tự nhận diện khuôn mặt trong ảnh, tìm kiếm các bộ phim ăn khách và thậm chí là cả tự lái xe. Tuy nhiên, khi một đối tượng, được xác định là Brenton Harrison Tarrant, công dân Australia, 28 tuổi, tiến hành vụ xả súng kinh hoàng tại hai đền thờ Hồi giáo ở thành phố Christchurch, New Zealand, và livestream vụ tấn công này trên Facebook trong 17 phút bằng cách sử dụng một ứng dụng được thiết kế cho những người đam mê thể thao, AI đã không phát hiện ra và giúp được bất kỳ điều gì.

Chân dung Brenton Harrison Tarrant – đối tượng tiến hành vụ xả súng vào 2 đền thờ Hồi giáo ở New Zealand.

Chân dung Brenton Harrison Tarrant – đối tượng tiến hành vụ xả súng vào 2 đền thờ Hồi giáo ở New Zealand.

Ngay lập tức, bản ghi lại video này và các bài đăng liên quan đến vụ xả súng đã được chia sẻ chóng mặt trên mạng xã hội khiến các công ty công nghệ phải cố gắng chạy theo. Vậy nguyên nhân vì đâu mà AI - vốn được dùng để giúp kiểm duyệt các cập nhật trạng thái, hình ảnh và video mà người dùng tải lên - không thể loại bỏ bài đăng có nội dung bạo lực như vậy một cách nhanh chóng như cách mà nó xuất hiện và lan tràn rộng rãi.

Có một thực tế là các trang mạng xã hội lớn trên thế giới trong đó có Facebook, Twitter, YouTube, ngày càng phụ thuộc vào sự phối hợp giữa AI và "bộ máy" điều hành là con người để kiểm soát nội dung mà người dùng đăng tải. Tuy nhiên, khi một lượng lớn bài đăng xuất hiện trên các mạng xã hội mỗi ngày, AI sẽ khó có thể nắm bắt những nội dung thù hận hay bạo lực trực tuyến như con người dù đã đã có nhiều cải thiện trong những năm gần đây.

Tất cả các công ty kỹ thuật AI phụ thuộc vào máy móc để tìm kiếm các nội dung "xấu", xác định ngôn ngữ, video hoặc hình ảnh "không phù hợp", song các bài mà AI có thể nhận diện là những bài quen thuộc, đã được đào tạo. Ví dụ, nếu bạn cung cấp cho một thuật toán nạp kiến thức vào máy nhiều hình ảnh về súng hoặc các bài viết liên quan đến tôn giáo, AI có thể học cách phát hiện những điều đó trong các hình ảnh và văn bản khác. Dẫu vậy, AI lại không thành thạo trong việc hiểu nội dung những thứ mà con người viết hoặc tải hình ảnh lên, hoặc quan trọng đối với môi trường văn hóa-xã hội xung quanh.

Chuyên gia nghiên cứu AI và học máy Daniel Lowd đồng thời là Giáo sư trợ giảng tại Đại học Oregon, cho rằng "nhiều tác động của một vài từ ngữ phụ thuộc vào bối cảnh văn hóa". Nhiều bình luận bề ngoài có vẻ rất bạo lực, song thực tế lại là sự mỉa mai, châm biếm, phản đối bạo lực. Cũng có những bình luận có vẻ rất bình thường vô hại, nhưng lại là tiềm ẩn những nguy cơ và mối nguy hiểm. Ngay cả khi bạo lực dường như xuất hiện trong một video, nó không phải lúc nào cũng dễ hiểu đến mức mà một người - chưa nói đến một cỗ máy được đào tạo - có thể phát hiện ra điều đó hoặc quyết định điều gì tốt nhất để có thể xử lý nó.

Một thứ vũ khí có thể không nhìn thấy được trong một video hay một bức ảnh, hoặc thứ có vẻ là bạo lực trên thực tế có thể là một sự mô phỏng. Đó là chưa kể, các yếu tố như ánh sáng hoặc các hình ảnh phông nền có thể khiến máy tính xáo trộn. Chính vì vậy, ngay cả những người điều khiển AI là con người vẫn phải vật lộn để phân tích điều này trên các mạng xã hội.

Trong khi đó, Sarah T. Roberts, Giáo sư trợ giảng tại UCLA, người nghiên cứu kiểm duyệt nội dung và truyền thông xã hội, cho biết: "Về mặt thuật toán, thật khó có thể sử dụng AI để phát hiện nội dung bạo lực trong một video. Sự phức tạp của bối cảnh, những đặc thù xung quanh những thứ tương tự gây nhiều khó khăn”.

Vì lẽ này, mà sẽ phải mất một chặng đường dài nữa AI mới có thể phát hiện được những phát ngôn hay hành động kích động bạo lực, giúp ngăn chặn các hành động cực đoan.

Ngọc Hà

Nguồn Hải Quan: https://baohaiquan.vn/giai-ma-viec-ai-bat-luc-trong-viec-ngan-chan-cac-video-cuc-doan-101502.html