Để AI 'an toàn ngay từ khâu thiết kế'

Trong lĩnh vực trí tuệ nhân tạo (AI) phát triển nhanh chóng, việc ưu tiên an toàn và phát triển có trách nhiệm ngày càng trở nên cấp thiết. Mới đây, 18 quốc gia đã đạt được thỏa thuận quốc tế chi tiết đầu tiên về trí tuệ hạt nhân an toàn, thúc giục các công ty công nghệ phải tạo ra các hệ thống AI 'an toàn ngay từ khâu thiết kế'. Đây là nỗ lực mới nhất của các nước trong việc xây dựng quy định về quản lý phát triển AI.

Định hình sự phát triển của AI

Theo nội dung thỏa thuận dài 20 trang, 18 quốc gia bao gồm Anh, Australia, Canada, Chile, CH Czech, Estonia, Pháp, Đức, Israel, Italy, Nhật Bản, New Zealand, Nigeria, Na Uy, Ba Lan, Hàn Quốc, Singapore và Mỹ đã cùng nhất trí rằng, các công ty thiết kế và sử dụng AI cần phát triển và triển khai công nghệ tiên tiến này theo cách giúp khách hàng và công chúng nói chung được an toàn, không bị lạm dụng. Đây là sáng kiến mới nhất trong một loạt sáng kiến của các Chính phủ trên khắp thế giới nhằm định hình sự phát triển của AI, vốn đang có sức ảnh hưởng ngày càng lớn trong ngành công nghiệp và xã hội nói chung.

Tài liệu dài 20 trang đưa ra các hướng dẫn mới về phát triển an toàn hệ thống AI, giúp các nhà phát triển của bất kỳ hệ thống nào sử dụng AI đưa ra quyết định sáng suốt về an ninh mạng ở mọi giai đoạn của quá trình phát triển. Nó áp dụng cho dù kế hoạch được phát triển từ đầu, hay được xây dựng bằng cách sử dụng các công cụ và dịch vụ do các nguồn bên ngoài cung cấp.

Các hướng dẫn trong thỏa thuận được Trung tâm giám sát an toàn không gian mạng quốc gia (NCSC) của Vương quốc Anh - một bộ phận của Trụ sở Truyền thông Chính phủ (GCHQ) và Cơ quan An ninh mạng và cơ sở hạ tầng Mỹ (CISA) hợp tác xây dựng, cùng làm việc với các chuyên gia trong ngành và 21 cơ quan quốc tế, các bộ trên toàn thế giới. Nỗ lực toàn diện này còn có sự tham gia của đại diện các quốc gia thành viên Nhóm G7 và Nam bán cầu.

Mặc dù thỏa thuận không mang tính ràng buộc về mặt pháp lý nhưng nó bao gồm các khuyến nghị rộng rãi. Những đề xuất này bao gồm giám sát các hệ thống AI để tránh nguy cơ lạm dụng, bảo vệ dữ liệu khỏi bị giả mạo và đánh giá kỹ lưỡng các nhà cung cấp phần mềm. Theo Giám đốc CISA, bà Jen Easterly, điều quan trọng là nhiều quốc gia đã tán thành nguyên tắc ưu tiên an toàn trong các hệ thống AI.

"Đây là lần đầu tiên chúng ta cùng khẳng định rằng, AI không chỉ liên quan đến các tính năng thú vị và tốc độ ra mắt thị trường hay cách cạnh tranh để giảm chi phí, mà hơn thế, với thỏa thuận vừa đạt được, mọi người đã nhất trí rằng điều quan trọng nhất cần phải thực hiện ở giai đoạn thiết kế chính là bảo mật", bà chia sẻ với Reuters.

Vào đầu tháng, Vương Quốc Anh cũng tổ chức “Hội nghị Thượng đỉnh toàn cầu về AI” đầu tiên tại Bletchley Park, với sự tham dự của đại diện các chính phủ quốc tế, công ty công nghệ đa quốc gia hàng đầu và chuyên gia trong ngành. Kết quả quan trọng của sự kiện trên là việc thông qua “Tuyên bố Bletchley”, một thỏa thuận quốc tế giữa 29 Chính phủ.

Nguồn: ITN

An toàn AI - giấc mơ có thể đạt được?

Tuyên bố Bletchley khẳng định cam kết chung của các quốc gia trong việc phát triển AI theo cách ưu tiên sự an toàn, nguyên tắc lấy con người làm trung tâm, độ tin cậy và trách nhiệm. Các bên ký kết đáng chú ý bao gồm Anh, Mỹ, Trung Quốc và các quốc gia thành viên quan trọng của châu Âu như Pháp, Đức, Italy, Tây Ban Nha và EU. Một yếu tố quan trọng của tuyên bố tập trung vào “AI biên giới”, được định nghĩa là “các mô hình nền tảng có năng lực cao, có thể sở hữu các khả năng nguy hiểm đủ để gây ra rủi ro nghiêm trọng cho an toàn công cộng”, đặc biệt là trong an ninh mạng và công nghệ sinh học. Thỏa thuận nhấn mạnh nhu cầu ngày càng tăng trong việc hiểu rõ và giảm thiểu những rủi ro này thông qua hợp tác toàn cầu. Bên cạnh Tuyên bố Bletchley, một kết quả khác của hội nghị là thỏa thuận về “Thử nghiệm an toàn” AI, được chính thức hóa trong tài liệu chính sách.

Trong khi đó, thỏa thuận mới vừa đạt được của 18 quốc gia tăng cường giải quyết các câu hỏi về cách bảo đảm cho công nghệ AI không bị tin tặc tấn công, đồng thời nêu ra các khuyến nghị giúp AI an toàn hơn. Tuy nhiên, nó vẫn chưa giải quyết các câu hỏi hóc búa xung quanh việc sử dụng AI phù hợp, hoặc cách thu thập dữ liệu cung cấp cho các mô hình này. Trong khi vấn đề này lại đặc biệt quan trọng với các doanh nghiệp đang phát triển các hệ thống trí tuệ nhân tạo cho hàng triệu khách hàng. Hơn nữa, mặc dù thỏa thuận này cho thấy tầm nhìn chung của một số quốc gia trong việc quản trị công nghệ AI, nhưng để có tác động thực tế, nội hàm của nó cần được cụ thể hóa và chế định hóa thành khuôn khổ pháp lý. Ngay như ở Mỹ, chính quyền Tổng thống Biden đã rất nỗ lực để thúc đẩy vấn đề này, nhưng cũng chỉ mới dừng lại được thành những cam kết tự nguyện hay mới nhất là sắc lệnh hành pháp để điều chỉnh và khuyến khích khu vực tư nhân phát triển AI một cách có trách nhiệm. Trong khi đó, doanh nghiệp nhìn vào tín hiệu của thị trường nhiều hơn là chờ có luật mới làm.

Hiện nay, Liên minh châu Âu đang được đánh giá là khu vực đi đầu về các quy định liên quan đến AI. Các nhà lập pháp ở châu Âu đã soạn thảo các quy tắc về AI và hy vọng sẽ chính thức có bộ luật quản lý trí tuệ nhân tạo đầu tiên trên thế giới vào cuối năm nay.

Theo một nghiên cứu của Statista, thị trường AI toàn cầu sẽ tăng trưởng 54% mỗi năm. Dự đoán, đến năm 2028, giá trị thị trường AI có thể vượt ngưỡng 1.000 tỷ USD, điều đó đồng nghĩa rằng việc xây dựng hành lang pháp lý nhằm kiểm soát và ngăn ngừa những nguy cơ tiềm ẩn từ AI ngày càng cấp thiết trên thế giới.

Linh Anh

Nguồn Đại Biểu Nhân Dân: https://daibieunhandan.vn/viet-nam-va-the-gioi/de-ai-an-toan-ngay-tu-khau-thiet-ke-i352213/