早嶋です。
AI活用の合成動画作成の技術が実用化しています。俳優の様々な表情データを動画生成AIに読み込ませます。それらを教師データとして学習を数万回から数百万回繰り返すことで、動作や表情に対して自然な顔の動き、目線の動き、唇とセリフの同期、そして表情の変化を作りだすことが可能です。合成された動画は広告や将来的にはドラマや映画などに活用が期待されます。
この分野、既に一部のニュースメディアで実用化されています。博報堂と英国のスタートアップのシンセシアがタッグを組んで日銀の金融政策について読み上げる仮想女性を創りだしています。こちらの場合は、実在の人物の顔、音声等のデータを基に分身を作成します。理屈では一度データを取得すると30分程度の短い動画であればすぐに作成できると言います。
現時点での契約では、データを提供した人物に対して俳優が本来受け取っていた対価を頂くことが出来るそうです。ここは将来の音声や動作そのものを売り物にしていた方からすると諸刃の剣になりますね。
本来の俳優業は時間を売っての商売でした。そのため撮影できる時間に限りがあり、断っているケースが多く存在していたと思います。またアクションシーンや物理的に撮影する場所に移動を伴う場合、その前後の時間も無駄になっていました。また、撮影する際も撮り直しや何らかの条件を一致させる必要があれば、当然に拘束時間も長くなったことでしょう。
それが、基本的に俳優の時間確保、場所確保、そしてスタジオでの撮影そのものが不要になるのです。このように考えると、基本的に俳優に支払う費用は同じでも、撮影の手間、編集の手間、移動やその他付随する費用を払うことを考えた場合、製作費の実に9割も削減できるといいます。
このような動画、シンセティックメディアはデジタル素材になるためコピペの対象になります。つまり同じ作品を無数に際限なく生み出すことができるようになるのです。すると、従来忙しい時間帯に登壇できなかったため、偶然にそのタイミングで空いていた俳優がフォーカスされるなどの、アナログであったからこその偶然のスター誕生なども少なくなるでしょう。また、元々能力があるけれども日の目に会えなかった俳優も登壇する回数が激減することになるでしょう。
更に、映像を5G などで届ける際に、受信側の人の感情などのデータをリアルタイムに交換できる仕組みがあるのであれば、配信するストーリーそのものを受信側の人に応じて物語や登場人物、エンディングのシナリオを変えるような配信も可能になります。従来は、違うパターンの動画を取るためにはアナログを駆使して物理的に同じ条件で撮影を重ねる必要がありました。しかし、シンセティックメディアを活用すると同じ動画データから異なる動画を創り出すこともリアルの作業を比較すると簡単になります。
デジタル化が進むと、俳優の世界においても頂点とそれ以下に分かれてしまう。後5年もすると日常的にこの技術も活用されるようになるのでしょうね。