Stel je voor dat je je film bewerkt en in de fase komt waarin het productiegeluid moet worden toegevoegd of geperfectioneerd. Dit kan een leuk onderdeel zijn van het bewerken en samenbrengen van dingen, maar het kan ook een zeer tijdrovend onderdeel van het proces zijn. Als je geen opname van het livegeluid had, moet je de verschillende samples die je in je bibliotheek hebt doornemen, of ze online zetten, en kijken welk geluid het beste werkt. Als je het budget hebt, kun je een Foley-artiest aan je team toevoegen om de geluiden voor je video fysiek te produceren. Deze geluiden moeten vervolgens worden bewerkt voor de verschillende geluiden die je nodig hebt, of het nu de voetstappen in de steeg zijn of de geweerschoten die door de moordenaar zijn afgevuurd die deel uitmaken van je verhaal. Wat als dit allemaal automatisch kan?
MIT heeft zojuist een artikel uitgebracht waarin deze technologie wordt beschreven die het geluid interpreteert in de video die ze aan de software 'laten zien'. Zonder een beschrijving toe te voegen van wat het geluid maakt, kan de software simuleren hoe het denkt dat het klinkt door gewoon naar de video te "kijken", en het is goed genoeg om mensen voor de gek te houden.
Ik zie een toekomstscenario waarin je je project hebt geopend op je NLE, of het nu Adobe Premiere of Final Cut Pro is, en je hebt de ruwe versie van je project voltooid en je moet beginnen met het geluidsbewerkingsgedeelte van het proces. Stel je voor, in plaats van je Foley-bibliotheek te importeren en ze allemaal door te nemen om te zien of het in de scène past, kun je nu een effect toevoegen, zoals Warp Stabilizer in Adobe Premiere om het beeldmateriaal te stabiliseren, en het effect loopt door de opname en voegt toe wat het denkt dat de geluiden zouden moeten zijn voor de instanties die het in de verschillende filmfragmenten aantreft. Dit zal zeker een geweldige toevoeging zijn aan de video- en filmproductie-industrie. Het maakt de workflow soepeler en u kunt het mogelijk helemaal zelf doen.
Met deze AI zijn er positieve en negatieve punten. De kosten voor het maken van een video of film kunnen worden verlaagd. Technologie als deze kan de productie van een video mogelijk maken zonder de arbeidskosten die gepaard gaan met dit type Foley-productieproces. Dat is het positieve. Maar uit de epische video die is gevonden als onderdeel van Alex Cooke's artikel "The Secret World of Foley" Is a Delightful Look at the Unsung Heroes of Film, kun je het proces observeren Foley-artiesten die de geluiden voor een gefilmd verhaal maken . Het is zo'n gracieus, magisch en sereen proces dat ik zeker nooit als iets belangrijks heb beschouwd, tot het artikel en de video.
Zal de technologie die in het artikel van MIT wordt genoemd dit proces wegnemen van de menselijke schepping? Misschien, maar dit zijn onvermijdelijke veranderingen in een branche waaraan mensen zich moeten aanpassen, net zoals fotografie is overgestapt van film naar digitaal. Ik bedoel, zou ik liever hebben dat een DJI Ronin de opname stabiliseert tijdens het fotograferen in plaats van de Warp Stabilizer in de post toe te voegen? Natuurlijk. Kan het met het budget dat ik heb voor een persoonlijk project? Niet helemaal. Als het goedkoper is om deze AI aan mijn project toe te voegen om me de Foley te geven die ik nodig heb dan om iemand te vragen het daadwerkelijk te produceren, dan kies ik de AI.
Ik denk dat je waarschijnlijk denkt dat alles wat we nu nodig hebben, robots zijn die bruiloften, evenementen, de straten, landschappen en mode fotograferen, en we zijn klaar. Waar ik echt van schrik, is dat iemand in de reacties me vertelt dat het al gebeurt.
Wat ik weet is dat het de mensen zijn die zich aanpassen die overleven. Maar ik heb ook geleerd dat het de gepassioneerde mensen zijn, degenen die blijven doen wat ze doen naar hun beste vermogen, misschien omdat ze erin geloven of misschien omdat het hun vorm van expressie is die ze kiezen en vertrouwen die hen het werk bezorgen welke technologie ze ook gebruiken.