DeepMind A.I. Împușcă Gapul între robot și vocile umane

$config[ads_kvadrat] not found

DeepMind Scholars: Benedetta's story

DeepMind Scholars: Benedetta's story
Anonim

Informația inteligentă a făcut doar vocile robotului să fie mult mai realiste.

DeepMind, care a demonstrat anterior puterea lui A.I. prin baterea unui jucător uman la Go în martie și tăierea facturii sale de putere la jumătate în iulie, se concentrează acum pe sinteza vorbirii.

Grupul de cercetare A.I, care face parte din compania mamă Google Alphabet, a dezvăluit în această dimineață că a creat o tehnologie nouă numită WaveNet care poate fi utilizată pentru a genera mai multă vorbă, muzică și alte sunete decât înainte.

DeepMind explică faptul că multe metode existente de sinteză a vorbirii se bazează pe "o bază de date foarte largă de fragmente de vorbire scurte sunt înregistrate de la un singur difuzor și apoi se recombină pentru a forma declarații complete". WaveNet, pe de altă parte, utilizează "forma de undă brută a semnalului audio "Pentru a crea voci și sunete mai realiste.

Aceasta înseamnă că WaveNet lucrează cu sunetele individuale create atunci când un om vorbeste în loc să folosească silabe complete sau cuvinte întregi. Aceste sunete sunt apoi executate printr-un proces "computațional scump" pe care DeepMind l-a găsit "esențial pentru generarea de sunet complex, realist" cu mașini.

Rezultatul acestei lucrări suplimentare este o îmbunătățire cu 50% a discursului sintetizat în limbile engleză și chineză în limba chineză. Iată un exemplu de vorbire generat folosind parametrul text-to-speech, care este comun astăzi, folosit de DeepMind pentru a demonstra modul în care lipseste această metodă de sinteză a vorbirii:

Iată un exemplu al aceleiași propoziții generate de WaveNet:

Întrucât companiile își continuă activitatea pe interfețele de limbă naturală, oferirea de răspunsuri mai sigure și mai realiste va deveni din ce în ce mai importantă. WaveNet vă poate ajuta să rezolvați această problemă.

$config[ads_kvadrat] not found