Luật AI của EU đặt ra rủi ro và quy tắc – Những điều bạn cần biết

Những tiến bộ to lớn trong trí tuệ nhân tạo đã khiến các nhà quản lý ở Liên minh châu Âu và trên toàn thế giới tranh giành để đưa ra các quy tắc để giám sát ngành công nghiệp. Câu chuyện thành công của OpenAI với ứng dụng AI tạo ra ChatGPT cho thấy sự thiếu luật pháp phù hợp trong một lĩnh vực được coi là nguy hiểm chưa được biết đến.
Reuters đưa tin, trích dẫn những người quen thuộc với vấn đề này, rằng các nhà lập pháp EU đã xung đột về luật AI mang tính bước ngoặt được đề xuất vài năm trước.
Dự thảo luật của Ủy ban châu Âu chủ yếu tập trung vào nhu cầu bảo vệ người tiêu dùng khỏi những nguy hiểm liên quan đến các công nghệ mới nổi đã trở nên phổ biến trong vài tháng qua và các khoản đầu tư của các công ty lớn như Microsoft, Google và Meta.
Mặc dù việc thúc đẩy các quy định trong lĩnh vực AI là cách tiếp cận thận trọng nhất, dự thảo luật của Ủy ban châu Âu nên được áp dụng giữa các quốc gia EU. Do đó, cần phải có một phiên tòa trước khi chúng trở thành luật.

 

Nghị sĩ EU tranh luận về đề xuất dự luật AI, nhưng thời gian đang trôi qua

Reuters cho biết một số nhà lập pháp mong muốn đạt được sự đồng thuận về dự luật dài 108 trang tại một cuộc họp ở Strasbourg, Pháp vào tháng Hai, trước khi thử nghiệm trong những tháng tới.
Tuy nhiên, cuộc họp kéo dài 5 giờ đã gặp trở ngại và các nghị sĩ không thể giải quyết được. Như ba người quen thuộc với vấn đề này đã xác nhận, họ bất đồng về một số khía cạnh của dự luật.
Ngành công nghiệp đang chuẩn bị cho một thỏa thuận vào cuối năm 2023, nhưng nghi ngờ rằng sự bế tắc trong việc đạt được sự đồng thuận giữa các nhà lập pháp đang gia tăng. Một số người cho rằng luật có thể bị trì hoãn đến năm 2024 do các nhà lập pháp bất đồng ý kiến.
Ý tưởng trì hoãn luật cho đến năm 2024 không được đa số người dân ưa chuộng, những người nói rằng trong cuộc bầu cử châu Âu, các thành viên của Nghị viện châu Âu có thể áp dụng một loạt các ưu tiên khác nhau khi họ nhậm chức, một tình huống có thể khiến ngành công nghiệp trí tuệ nhân tạo gặp khó khăn.
“Tốc độ phát hành hệ thống mới khiến các quy định trở thành một thách thức thực sự”, Daniel Leufer, nhà phân tích chính sách cấp cao của nhóm nhân quyền Access Now, cho biết trong một tuyên bố với Reuters. “Đó là một mục tiêu phát triển nhanh chóng, nhưng mặc dù tốc độ phát triển nhanh chóng, vẫn có một số biện pháp liên quan: minh bạch, kiểm soát chất lượng và các biện pháp để duy trì các quyền cơ bản của họ.”

Các nghị sĩ chạy đua với thời gian

Các nhà lập pháp EU đang làm việc để thông qua hơn 3.000 sửa đổi được đệ trình và xem xét thành lập một văn phòng AI mới trong phạm vi của dự luật mới. Theo Brando Benifei, thành viên Nghị viện châu Âu của Ý, “các cuộc đàm phán khá phức tạp vì nhiều ủy ban khác nhau liên quan.”
Benifi là một trong hai thành viên chịu trách nhiệm dẫn đầu các cuộc đàm phán được chờ đợi từ lâu về dự luật AI trong khu vực. Nghị sĩ thừa nhận “các cuộc thảo luận có thể kéo dài” vì họ phải nói chuyện với tối đa 20 thành viên của Nghị viện châu Âu mỗi lần.
Các nhà lập pháp EU đã cố gắng tìm sự cân bằng giữa việc thúc đẩy sự khéo léo và đảm bảo các quyền cơ bản của người dân.
Với ý nghĩ đó, các nhà lập pháp đã phân loại các công cụ AI khác nhau dựa trên mức độ rủi ro nhận thức của chúng. Mức độ từ tối thiểu đến giới hạn, rủi ro cao và cuối cùng là không thể chấp nhận được. Cho đến nay, có những dấu hiệu cho thấy các công cụ rủi ro cao sẽ không bị cấm, tuy nhiên, người tạo ra chúng nên rất minh bạch trong hoạt động của họ.
Bất chấp những tranh cãi, người ta không nói nhiều về các công nghệ AI tạo ra mở rộng nhanh chóng như ChatGPT của OpenAI và Stable Diffusion đã quét qua thế giới chỉ trong vài tháng, trong khi cân bằng tinh tế giữa sự mê hoặc của người dùng và tranh cãi.
Chỉ vài tuần sau khi ra mắt vào tháng 2, ChatGPT được cho là đã đạt được cơ sở người dùng khổng lồ vẫn tiếp tục phát triển cho đến nay, đặc biệt là với việc phát hành GPT4, một mô hình ngôn ngữ lớn đa chế độ từ OpenAI.

Khám phá dự luật AI – Phạm vi là gì?

Đạo luật AI rất rộng và được thiết kế để quản lý mọi cá nhân hoặc tổ chức sử dụng các công nghệ AI mới nổi để cung cấp sản phẩm hoặc dịch vụ. Reuters cho biết họ sẽ giám sát tất cả các hệ thống tạo ra đầu ra dưới dạng nội dung, dự đoán, khuyến nghị và thậm chí là các quyết định có thể ảnh hưởng đến môi trường.
Ngoài việc quản lý việc sử dụng AI của các công ty và doanh nghiệp, dự luật sẽ xem xét các trường hợp sử dụng AI trong khu vực công và thực thi pháp luật. Nó sẽ không hoạt động một mình, nhưng sẽ làm việc tay đôi với các luật hiện hành như Quy định bảo vệ dữ liệu chung (GDPR).
Các hệ thống AI tiếp xúc với mọi người, giám sát hoặc có thể tạo nội dung “giả mạo sâu” tuân thủ các yêu cầu nghiêm ngặt về tính minh bạch.

Các nhà lập pháp nghĩ gì về “rủi ro cao”?

Một số công cụ AI được phân loại là có nguy cơ cao, bao gồm các hệ thống được sử dụng cho cơ sở hạ tầng quan trọng, giáo dục, nhập cư, an ninh sản phẩm, tư pháp hoặc thực thi pháp luật. Vì chúng nằm dưới mức “không thể chấp nhận được”, chúng sẽ không bị cấm.
Các cá nhân hoặc tổ chức sử dụng AI có nguy cơ cao có thể cần phải trải qua đánh giá rủi ro kỹ lưỡng, lưu giữ hồ sơ hoạt động của họ và cho phép truy cập dữ liệu để kiểm tra định kỳ. Điều này có thể dẫn đến chi phí tuân thủ cao hơn cho các doanh nghiệp.

Universal Artificial Intelligence System là gì

Các hệ thống trí tuệ nhân tạo chung (GPAIS) là một trong những loại mà các nhà lập pháp EU đề xuất đề cập đến các công cụ AI hướng tới nhiều ứng dụng, chẳng hạn như mô hình ngôn ngữ của OpenAI, chẳng hạn như ChatGPT.
Các nhà lập pháp EU vẫn đang xem xét liệu tất cả các hình thức GPAIS có nguy cơ cao hay không. Nếu vậy, vẫn chưa rõ quy định này sẽ ảnh hưởng như thế nào đến các công ty công nghệ đang mong đợi tích hợp AI vào các sản phẩm của họ. Dự luật không nêu rõ các nghĩa vụ mà các nhà sản xuất hệ thống AI phải tuân thủ.
Các đại diện của các công cụ AI có thể thuộc phân loại GPAIS đã nhất trí phản đối động thái này và về cơ bản nói với các nhà lập pháp tin tưởng vào các hướng dẫn nội bộ của họ mà họ tuyên bố là mạnh mẽ để đảm bảo an toàn cho việc triển khai và sử dụng.
Các công ty đang vận động hành lang cho một điều khoản lựa chọn tham gia sẽ làm cho các quyết định tuân thủ các quy định, đặc biệt là đối với loại này, hoàn toàn phụ thuộc vào chính tổ chức.

Điều gì sẽ xảy ra nếu một công ty bỏ qua luật pháp?

Vi phạm luật AI sẽ khiến các công ty phải đối mặt với khoản tiền phạt lên tới 30 triệu euro hoặc một phần, với mức cao hơn chiếm 6% lợi nhuận toàn cầu của họ.
Đối với các công ty công nghệ hỗ trợ OpenAI như Microsoft, khoản tiền phạt có thể lên tới 10 tỷ USD nếu bị phát hiện vi phạm pháp luật.
Do đó, các công ty công nghệ lớn hiện đang vận động hành lang rộng rãi, đặc biệt là những công ty đã đầu tư hàng tỷ đô la vào các công nghệ và sản phẩm AI đột phá.
Các nguồn tin giấu tên nói với Reuters rằng họ đang làm việc để loại trừ sự đổi mới của họ khỏi việc làm rõ rủi ro cao, điều này cuối cùng sẽ dẫn đến chi phí tuân thủ và trách nhiệm giải trình cao hơn cho các sản phẩm của họ.
Theo một cuộc khảo sát được thực hiện bởi appliedAI, hơn một nửa số người tham gia dự đoán tiến độ của các sáng kiến trí tuệ nhân tạo (AI) sẽ chậm lại sau khi Đạo luật Trí tuệ nhân tạo được thực hiện.

 

Các công ty trong lĩnh vực AI có nên tham gia vào quá trình lập pháp không?

Theo DeepMind, một công ty trí tuệ nhân tạo thuộc sở hữu của Google, công ty hiện đang thử nghiệm bot trò chuyện thông minh nhân tạo Sparrow, nói với Reuters trong một tuyên bố rằng các quy tắc quản lý các hệ thống đa năng rất phức tạp và “cần phải có một quy trình toàn diện” để thu hút tất cả các bên liên quan.
“Chúng tôi tin rằng việc xây dựng một khuôn khổ quản trị xung quanh GPAIS cần phải là một quá trình toàn diện, có nghĩa là tất cả các cộng đồng bị ảnh hưởng và xã hội dân sự nên tham gia”, Alexandra Belias, người đứng đầu chính sách quốc tế tại DeepMind cho biết.
Bà tin rằng đây là thời điểm thích hợp nhất để phát triển một khung pháp lý sẽ đứng vững trước thử thách của thời gian và “vẫn còn đủ cho ngày mai”.
Nền tảng phát trực tuyến âm thanh Spotify gần đây đã phát hành “AI DJ”, một công cụ trí tuệ nhân tạo có khả năng cung cấp danh sách phát được cá nhân hóa cẩn thận cho người nghe. Giám đốc điều hành Spotify Daniel Ek tin rằng công nghệ AI là “con dao hai lưỡi”, nhưng thông qua hợp tác chặt chẽ với các nhà quản lý, nó có thể mang lại lợi ích cho nhiều người hơn và vẫn an toàn.
“Có rất nhiều điều chúng tôi phải suy nghĩ. Nhóm của chúng tôi đang tích cực làm việc với các nhà quản lý để cố gắng đảm bảo rằng công nghệ này được hưởng lợi nhiều nhất có thể và an toàn nhất có thể,” Eker nói.
Các nhà lập pháp EU nói với các bên liên quan trong ngành công nghiệp AI rằng mặc dù dự luật hiện là một chủ đề nóng, nó sẽ được xem xét thường xuyên và cho phép cập nhật khi có vấn đề mới.
“Các cuộc thảo luận không nên vội vàng hoặc thỏa hiệp được thực hiện để đóng các tài liệu vào cuối năm nay”, Leufer nói với Reuters. Quyền lợi của người dân đang bị đe dọa”.
Hiện tại, cuộc đua đang chạy đua với thời gian cho các nghị sĩ muốn đạt được tiến bộ đáng kể trước cuộc bầu cử châu Âu năm 2024.

Thang888 được cấp phép bởi European Malta (MGA) và Ủy ban cạnh tranh của chính phủ Philippines (PAGCOR). Đăng ký tại Quần đảo Virgin thuộc Anh và là một công ty được Hiệp hội Công nghiệp Quốc tế công nhận. Hãy chắc chắn rằng bạn trên 18 tuổi trước khi đăng ký và giải trí! Giấy phép Malta (MGA) Chứng nhận Quần đảo Virgin thuộc Anh (BVI) Chứng nhận Philippines (PAGCOR) Giám sát cạnh tranh Giấy phép