5 rủi ro pháp lý doanh nghiệp cần cân nhắc khi sử dụng AI

Xu hướng - Ngày đăng : 06:00, 02/06/2023

Sam Altman - nhà sáng lập và CEO của OpenAI, gần đây nói với các thượng nghị sĩ Mỹ rằng chính phủ cần đưa ra rào cản đối với trí tuệ nhân tạo - AI. Lý do là ChatGPT - sản phẩm nổi tiếng nhất của OpenAI, cùng nhiều công cụ AI sáng tạo nội dung khác như Jasper, StabilityAI... ngày càng trở nên phổ biến, nhiều doanh nghiệp đã bắt đầu tìm đến chúng để hỗ trợ quảng cáo, marketing, kinh doanh.

Tuy nhiên, cần biết rằng công cụ AI hiện còn quá mới, nên khung pháp lý cho việc sử dụng chúng vẫn đang được soạn thảo. Dưới đây là 5 rủi ro pháp lý doanh nghiệp (DN) cần cân nhắc để tránh vấp phải khi sử dụng AI.

Thông tin, nội dung giả

Công cụ AI tổng hợp văn bản như ChatGPT có thể tạo ra thông tin giả hoặc sai lệch. Theo Justin Pierce - Trưởng bộ phận sở hữu trí tuệ Công ty Luật Venable tại Washington, D.C. Mỹ, một trong những rủi ro lớn nhất đối với các công cụ này là nếu DN sử dụng chúng để viết quảng cáo cho một sản phẩm, mà trong mẩu quảng cáo đó chứa thông tin sai lệch, DN sẽ tự đưa mình vào thế khó cũng như đánh mất uy tín.

Do đó, nên sử dụng nội dung do AI sáng tạo làm xuất phát điểm, với vai trò gợi ý, chứ không nên là nội dung cuối cùng. Yêu cầu AI trích nguồn cho văn bản mà nó tạo ra và tự kiểm tra nội dung cũng có thể giúp đảm bảo chính xác tài liệu.

-6662-1685073031.jpg

Xung đột lợi ích với người nổi tiếng

Hiện AI sáng tạo hình ảnh đã có thể tạo ra tác phẩm theo phong cách của một nghệ sĩ cụ thể, cũng như hình ảnh trông giống một nhân vật nổi tiếng. Dù đây có thể là một cách để minh họa cho bản tin hoặc bài đăng trên mạng xã hội, song việc sử dụng hình ảnh của người thật có thể khiến DN gặp rắc rối. 

"Về mặt chính sách, nên tránh đưa nhãn hiệu, người nổi tiếng, hình ảnh phổ biến hoặc nhân vật hư cấu nổi tiếng vào nội dung (được tạo bởi AI). Khi làm vậy, khả năng cao là nội dung có thể bị khiếu nại vi phạm bản quyền, vi phạm quyền công khai hoặc vi phạm nhãn hiệu", Pierce chia sẻ.

Không được luật bản quyền tác giả bảo vệ

Từ trước đến nay, quyền sở hữu bản quyền tác phẩm do phần mềm máy tính làm ra không gây quá nhiều tranh cãi, vì chúng chỉ đóng vai trò "hỗ trợ", như cây bút hay tờ giấy của tác giả. Khi đó, tác phẩm đủ điều kiện được luật bản quyền tác giả bảo vệ nếu nó là bản gốc, với phần lớn định nghĩa yêu cầu tác giả là người. Ở một số quốc gia như Tây Ban Nha hay Đức, chỉ tác phẩm được con người làm ra mới được luật pháp bảo vệ.

Khó có thể khẳng định ở thời điểm hiện tại, AI chỉ giữ vai trò "hỗ trợ", khi AI tiên tiến nhất đã tham gia sáng tác mà không cần con người. Và với việc AI ngày càng được sử dụng nhiều hơn, đồng nghĩa chúng sẽ ngày càng "giỏi hơn", lằn ranh giữa tác phẩm do "người làm" và "máy làm" sẽ thêm mong manh, kéo theo rủi ro không được luật bản quyền tác giả bảo vệ.

Tuy nhiên, khó có thể khẳng định ở thời điểm hiện tại, AI chỉ giữ vai trò "hỗ trợ", khi AI tiên tiến nhất đã tham gia sáng tác mà không cần con người. Và với việc AI ngày càng được sử dụng nhiều hơn, đồng nghĩa chúng sẽ ngày càng "giỏi hơn", lằn ranh giữa tác phẩm do "người làm" và "máy làm" sẽ thêm mong manh, kéo theo rủi ro không được luật bản quyền tác giả bảo vệ.

Rò rỉ thông tin

Các dòng code (mã lập trình), hình ảnh hoặc văn bản do người dùng AI nhập thường được hệ thống giữ lại và chúng có thể được phát hiện bởi người khác.

"Phải thật cẩn thận để không đưa thông tin bí mật hoặc độc quyền vào một trong các nền tảng AI sáng tạo nội dung. Ví dụ, nhân viên công ty sử dụng AI vì muốn cải thiện phần mềm, họ có thể tìm cách viết một số dòng code hiệu quả hơn và đưa dòng code của DN vào, rồi hỏi AI cách tốt nhất để hoàn thành nó. Hãy cẩn thận, vì nhân viên đó có thể đang phát tán code độc quyền của DN và làm suy yếu khả năng bảo vệ thông tin bí mật hoặc bí mật thương mại của tổ chức", Pierce khuyến cáo.

Tony Pietrocola - đồng sáng lập Công ty An ninh mạng AgileBlue tại Cleveland (Mỹ) cảnh báo, nếu các dòng code của DN bị phát hiện, tin tặc có thể thông qua chính công cụ AI để thăm dò nó và tìm lỗ hổng. Một số hệ thống cung cấp cho người dùng tùy chọn không chia sẻ ngôn ngữ truy vấn với công ty và việc chuyển sang phiên bản trả phí có thể giúp người dùng kiểm soát nhiều hơn dữ liệu của họ được chia sẻ. 

Thông tin khách hàng bị lấy cắp

Hãy cẩn thận để giữ dữ liệu khách hàng, gồm số điện thoại, số tài khoản... khỏi tầm ChatbotAI. Theo Pietrocola, ông đã thấy nhiều DN đưa thông tin tài chính hoặc khách hàng vào công cụ như ChatGPT để giúp họ hiểu và tổng hợp dữ liệu. Điều này có thể vi phạm luật về quyền riêng tư, đặc biệt với những công ty trong các ngành được quản lý chặt chẽ như tài chính và chăm sóc sức khỏe. Hơn nữa, thông tin cá nhân của khách hàng có khả năng bị tin tặc phát hiện và sử dụng để lừa đảo.

Bảo Quân