Skip to main content

OpenAI ra mắt công cụ mới có thể giả giọng nói của bất cứ ai chỉ với đoạn ghi âm 15 giây

30 Tháng Ba, 2024

OpenAI trình diễn công nghệ tái hiện giọng nói của bất cứ ai chỉ với đoạn ghi âm 15 giây, nhưng thừa nhận hiểm họa deepfake từ AI này.

OpenAI ngày 29/3 trình diễn phần mềm Voice Engine sử dụng AI tạo ra giọng nói dựa trên bản ghi âm ngắn và có thể đọc văn bản. Nó cũng có thể tái hiện bằng ngôn ngữ nước ngoài, ngay cả khi bản ghi âm mẫu chỉ sử dụng tiếng Anh.

Voice Engine được OpenAI phát triển từ 2022 và thử nghiệm cùng một nhóm khách hàng cuối 2023. Trong đó, phần mềm thể hiện khả năng hỗ trợ đọc, dịch nội dung giữa các ngôn ngữ khác nhau và tạo tiếng nói cho những người mất khả năng nói chuyện.

Advertisement

Tuy nhiên, OpenAI nói hiểm họa tiềm tàng của công nghệ bắt chước giọng nói, đặc biệt trong năm Mỹ tổ chức bầu cử tổng thống, là một phần lý do họ quyết định hạn chế quyền tiếp cận, chưa mở rộng rãi công nghệ này.

Theo công ty sở hữu ChatGPT, việc công bố Voice Engine nhằm khuyến khích giới quản lý và công chúng tăng cường cảnh giác với những trò lừa đảo sử dụng AI. Nhà phát triển cảnh báo tội phạm có thể dùng phần mềm giả giọng để đánh cắp thông tin cá nhân hoặc vượt qua những hàng rào an ninh tại ngân hàng.

“Điều quan trọng là mọi người hiểu được hướng đi của công nghệ, dù chúng tôi có phát hành nó rộng rãi hay không”, OpenAI cho hay.

Công nghệ giả giọng bằng AI gây chú ý sau khi một bản ghi âm bắt chước giọng Tổng thống Mỹ Joe Biden kêu gọi người dân “không tham gia bầu cử sơ bộ của đảng Dân chủ ở New Hampshire”, được phát tán trên mạng xã hội hồi tháng 1.

Advertisement

Pindrop Security, công ty chuyên phát hiện lừa đảo qua giọng nói, sau đó phân tích bản ghi và kết luận đây là deepfake sử dụng công nghệ của ElevenLabs – startup phát triển phần mềm AI tạo lập giọng nói bằng hơn 20 ngôn ngữ.

Theo Fortune, deepfake giọng ông Biden khiến nhiều chuyên gia và quan chức phụ trách bầu cử Mỹ lo ngại, gọi đây là “nỗ lực can thiệp bầu cử được hỗ trợ bởi AI”. Một số đánh giá nó không chỉ cho thấy việc phát tán deepfake âm thanh rất dễ dàng, mà còn thể hiện nguy cơ kẻ xấu dùng công nghệ này để ngăn cử tri đi bỏ phiếu và tác động đến kết quả bầu cử.

Special Offer từ MarketingTrips:

  • Tham khảo giải pháp Agency Listing từ MarketingTrips: Agency Networks
  • Đăng bài không giới hạn trên MarketingTrips với chi phí chỉ bằng 1 bài đăng (Booking): Content Partner
  • Đăng ký (dành cho Agency): Sign up

Tham gia Cộng đồng We’re Marketer của MarketingTrips (Trang tin tức trực tuyến về Marketing, Digital Marketing, Thương hiệu, Quảng cáo và Kinh doanh) để thảo luận các chủ đề về Marketing và Business tại: We’re Marketer

Advertisement

Bài viết liên quan

Nổi bật

Advertisement