Sự tiến bộ của AI khiến bất cứ ai cũng có thể ngồi trước màn hình và tạo những bức ảnh cho mục đích xấu, như kích động sợ hãi, phát tán tin giả.
OpenAI tuần trước thông báo bất kỳ ai cũng có thể sử dụng phiên bản mới nhất của công cụ Dall-E, chỉ vài tháng sau khi dự án này được triển khai.
Động thái này nhiều khả năng sẽ mở rộng hơn nữa tầm ảnh hưởng của những công nghệ dùng AI để sáng tác tranh ảnh, vốn đã thu hút một lượng lớn người theo dõi và thách thức những khái niệm cơ bản nhất về hội họa, nhiếp ảnh, sáng tạo. Tuy nhiên, đi kèm với đó là hàng loạt lo ngại về nguy cơ những hệ thống này có thể bị lạm dụng khi trở nên phổ biến.
"Học hỏi từ hoạt động thực tế giúp chúng tôi cải thiện tính năng an toàn, cho phép đưa nó đến với công chúng", OpenAI cho hay. Công ty cũng khẳng định đã có những phương án ngăn người dùng sử dụng AI để tạo ra nội dung gợi dục và bạo lực.
Tác phẩm "Nàng Monalisa" sau khi được làm mới bởi Dall-E 2. Ảnh: DallE2AI
Hiện có ba hệ thống tạo ảnh bằng AI rất nổi tiếng gồm Dall-E 2, Midjourney và Stable Diffusion. Tất cả đều cho phép người dùng thử nghiệm miễn phí, trước khi tính tiền nếu muốn dùng các tính năng đầy đủ. Chúng đã được thử nghiệm trong một số bộ phim, bìa tạp chí và quảng cáo bất động sản.
Chỉ sau vài tháng, đã có hàng triệu người dùng thử các hệ thống AI này. Nhiều tác phẩm được chia sẻ trên mạng và gây ấn tượng cho người xem, từ ảnh phong cảnh đến tranh vẽ nhà quý tộc Pháp và ảnh giả cổ.
Sự nổi lên của công nghệ này khiến nhiều người trong ngành ngỡ ngàng. Andrej Karpathy, cựu giám đốc AI của Tesla, cho biết ông "khựng lại" khi lần đầu thử nghiệm Dall-E 2. "Nghệ thuật mô tả hình ảnh do cộng đồng khám phá và các bức tranh ngày càng hoàn thiện chỉ sau vài tháng thực sự đáng kinh ngạc", Karpathy nói.
Dù vậy, công nghệ tạo ảnh từ văn bản bằng AI cũng đi kèm một số nguy cơ tiềm tàng. Giới chuyên gia AI từng đặt ra cảnh báo về bản chất cởi mở của những hệ thống này, trong đó khả năng tạo ra đủ loại hình ảnh từ mô tả bằng văn bản có thể tạo ra thiên kiến trên quy mô khổng lồ.
Một ví dụ là khi nhập dòng mô tả "nhân viên ngân hàng diện đồ cho ngày làm việc quan trọng" vào Dall-E 2, kết quả sẽ là một người đàn ông da trắng trung tuổi mặc vest. "Chúng cho phép người dùng tìm lỗ hổng trong hệ thống trong quá trình sử dụng", Julie Carpenter, nhà nghiên cứu tại Đại học Bách khoa bang California, nhận xét.
Các hệ thống cũng có thể bị lạm dụng cho mục đích xấu, như tạo ảnh giả mạo để gây sợ hãi hoặc phát tán tin giả.
Những nhà phát triển đã đặt ra hàng loạt giới hạn với hệ thống. Người dùng Dall-E 2 phải đồng ý điều khoản cấm tìm cách tạo, đăng tải và chia sẻ hình ảnh "không phù hợp với mọi đối tượng hoặc có khả năng gây nguy hiểm". D2-E 2 cũng không tiếp nhận những văn bản mô tả có từ ngữ bị cấm.
Tuy nhiên, vẫn có cách lách luật. Dall-E 2 không xử lý đoạn mô tả "ảnh con vịt đẫm máu", nhưng sẽ cho kết quả với mô tả "ảnh con vịt đẫm một thứ chất lỏng đặc màu đỏ". Bản thân OpenAI cũng đề cập tới hình thức dùng mô tả đồng nghĩa như vậy trong tài liệu về phần mềm này.
Chris Gilliard, chuyên gia tại Hội đồng Nghiên cứu Khoa học Xã hội (SSRC), cho rằng các công ty phát triển AI vẽ hình đang "đánh giá quá thấp sức sáng tạo không giới hạn" của những người có ý định xấu. "Tôi nghĩ đây là ví dụ mới về việc tung ra công nghệ với những ý tưởng nửa vời về ngăn chặn nguy cơ bị lạm dụng cho mục đích xấu, sau đó hy vọng sẽ có phương án xử lý chúng", ông nói.
Một số dịch vụ chia sẻ ảnh đã cấm hoàn toàn những sản phẩm do AI tạo ra để đối phó nguy cơ tiềm tàng. Dù vậy, giới chuyên gia cho rằng phát hiện và ngăn chặn chúng vẫn sẽ là thách thức dài hạn.
Điệp Anh (Theo CNN)