A Voice Engine hangklónozó eszköz túl kockázatos az általános kiadáshoz. Az OpenAI szerint az eszköz megjelenésének késleltetésével hozzájárulnak a félretájékoztatás lehetőségének minimalizálásához.

Túl kockázatosnak ítélték az OpenAI új eszközét, amely mindössze 15 másodpercnyi hangfelvételből képes bárki hangjának meggyőző klónját létrehozni – írja a Guardian cikke alapján a Noizz.

A Voice Engine először 2022-ben tűnt fel, amikor az OpenAI a mostani eszköz egy kezdetlegesebb változatát használta a ChatGPT-be épített szöveg-beszéd funkcióhoz. Azonban a vállalat a mostani komoly fejlesztéseken étesett eszközt nem akarja még a felhasználók kezébe adni.

Reméljük, hogy párbeszédet indítunk a szintetikus hangok felelős alkalmazásáról, és arról, hogy a társadalom hogyan tud alkalmazkodni ezekhez az új képességekhez

– írta a cég, ami megmutatta azt is, hogy mire képes az új eszköz.

Az Age of Learning oktatási technológiai cég szkriptelt szinkronhangok generálására használja, míg a HeyGen AI visual storytelling applikációjában a felhasználóknak lehetőséget kínál arra, hogy a felvett tartalmak fordításait úgy generálják, hogy azok folyékonyan, de az eredeti beszélő akcentusát és hangját megőrizve szólaljanak meg. Ez azt jelenti, hogy egy francia beszéd alapján generált angol szöveg francia akcentust fog kapni.

Az OpenAI igyekezett gondolni a biztonságra, így vízjellel látja el a Voice Engine által készített hanganyagokat, hogy lehetővé tegye a hangok eredetének visszakeresését.

Jelenleg a partnereinkkel kötött feltételeink megkövetelik az eredeti beszélő kifejezett és tájékozott beleegyezését, és nem engedjük meg a fejlesztőknek, hogy módot teremtsenek arra, hogy az egyes felhasználók saját hangokat hozzanak létre

– írta az OpenAI.

(Noizz)

(Borítókép: Az OpenAI-logója. Fotó: GettyImages)