INORI (Prayer) nobumichi asai

Graduated from Department of Science, Tohoku University.

He is a world famous artist for technology art including face mapping. The face mapping collaborated with Lady Gaga and Nile Rogers at the Grammy Awards in 2016 was simultaneously broadcasted to 200 million people worldwide, which received a huge reaction.

The world’s pioneer VR work “Ghost in the shell” virtual reality diver received the Best of VR at the Venice International Film Festival in 2018.

The face mapping work with AyaBambi “INORI-Prayer-” created 5 million view buzz, and received six domestic and international awards including Short of the Year – Best of Experimental (Germany). His first face mapping work, “OMOTE” (2014) recorded 5 million views in a week and became a worldwide topics.

For “CONNECTED COLORS (2016)”, he was selected as one of the about dozen world’s innovators, and the work was broadcasted worldwide as Intel’s CM. It recorded 4 million views in FUBIZ (France) and other medias, and its installation was held in Paris and NYC.

“INORI – we pray all nukes will eternally disappear from the world. (2017)” was the artwork on the theme of radioactivity. It was selected as an art project by Luciano Benetton’s IMAGO MUNDI and its installation (2018/7-11) and a lecture were held in Venice (2018/7). The world ’s first volumetric laser hologram, “light of birth (2016)” was exhibited at the Milan Triennial Museum and Media Ambition Tokyo.

He is also active as Speaker and Judge on overseas. 2017/6, he was invited to the Louvre museum and made a speech with the theme of “FUTURE ART”. In 2014/9, 2017/9, he participated in the Moscow art festival, Circle of Light, as a judge. In 2015, he was invited to Tencent’s Innovation Festival, WE SUMMIT, in Beijing and made a speech to the audience of 2,500 people. In 2018/5, at the 2050 Design Matters Conference in Hangzhou, China, he gave a speech on the theme of “Technology + Art + Humanity” in front of 2000 people.

He is challenging innovative expression by fusion of art & design thinking and technology. He has received awards such as Venice International Film Festival “Best of VR” official invitation, Japan Media Arts Festival, VFX AWARD 2015 & 2017, Ars Electronica VFX animation category prize, Short of the year Best of Experimental (Germany) and many others.
The latest work to utilize real time tracking and face projection mapping using a state of the art 1000 fps projector and ultra high speed sensing, “INORI-prayer-,“ has been released. This project was born by the collaboration with Nobumichi Asai (WOW) ,the dancing duo AyaBambi, and the Ishikawa Watanabe Laboratory (the University of Tokyo), TOKYO.
This project began when songs were created about ‘life,’. Creative and technical director Asai (WOW) and CG director Shingo Abe (WOW) completed visual production and programming based on inspiration they obtained from the songs. Aya Sato added the choreography, and TOKYO completed the project by making it into a video.
‘Radioactive’ is the inspiration that Asai felt from music. ‘Radioactive’ wields destructive power, and from that brings ‘death’, ‘suffering’, and ‘sadness”’. And then, the ‘opportunity’ to overcome those things. Accompanied by the overwhelming performance of AyaBambi, a visual synchronization of black tears, skulls, faces being severed, Noh Masks of agony and
the Heart Sutra have sublimated into a single piece of work.
The face mapping system made it possible to follow intense performances, which was impossible until now, thanks to the use of the state of the art 1000 fps projector DynaFlash※1 and ultra high speed sensing. The initial dilemma of speeding up the tracking to the detriment of performance latitude was resolved by the WOW team, Professor Watanabe, and Tomoaki Teshima (EXVISION), who trimmed several milliseconds during a trial and error period that lasted approximately three months, enabling the completion of this system※2. The projected image looks like it is integrated into part of the skin, and the expressions on a subject’s face, when it is distorted or transformed, are exponentially enhanced.
*1: Jointly developed by the Ishikawa Watanabe Laboratory at the University of Tokyo and Tokyo Electron Device, and commercialized by Tokyo Electron Device.
*2: Dynamic projection mapping technology, developed by the Ishikawa Watanabe Laboratory at the University of Tokyo, was used for hand tracking and projection mapping. Face mapping technology, developed by WOW Inc., was used for facial tracking.


最新鋭1000fpsプロジェクターと超高速センシングによるリアルタイムトラッキング&フェイスプロジェクションマッピングの最新作「INORI -PRAYER-」が公開された。本作は、浅井宣通(WOW)、ダンスユニットAyaBambi、東京大学石川渡辺研究室、TOKYOとのコラボレーションから誕生した。
本作は、「生命」をテーマに楽曲を制作したところから開始。楽曲から受けたインスピレーションを元に、クリエイティブ・テクニカルディレクター浅井(WOW)とCGディレクター阿部伸吾(WOW)がビジュアル制作とプログラミングを構築。更にAya Sato氏がコレオグラフを作り上げ、谷川氏率いるTOKYOが映像作品として完成させた。
※1: 東京大学石川渡辺研究室と東京エレクトロンデバイスが共同で開発し、東京エレクトロンデバイスが製品化。
※2: 手のトラッキング&プロジェクションマッピングは、東京大学石川渡辺研究室が開発したダイナミックプロジェクションマッピング技術を使用。顔のトラッキングは、WOW inc.が開発したフェイスマッピング技術を使用。

Staff Credit
Creative Director / Technical Director:Nobumichi Asai[WOW]
CG Director:Shingo Abe[WOW]
Programmer:Atsushi Yoshimura[WOW]
Assistant Producer:Ayaka Motoyoshi[WOW]
Director / Editor:Eiji Tanigawa[TOKYO]
Director of Photography:Senzo Ueno[TOKYO]
Producer:Toshiyuki Takei, Shinya Masuda[TOKYO]
Production Manager:Minami Chiwaki, Yuma Yoshimura, Kohei Takayama[TOKYO]
Making Director:Suzuko Ohgaki[TOKYO]
Choreographer:Aya Sato
Gaffer:Tomohiro Takahashi
Light Assistant:Hisashi Morikawa, Mie Inaba, Akihiko Imai
Camera 1st Assistant:Takashi Ideguchi
Camera 2nd Assistant:Shibuya Hiromi, Fujii Ryosuke
Music:Setsu Fukushima, Ryosuke Taniguchi[Ongakushitsu Inc.]
Music Composer:Yosuke Nagao
Colorist:Yasuo Fukuda
Online Editor:Ryota Abe
Mizuki Kawano [School]
Tomoyuki Sawada [Kartz Media Works]
Natsuki Taguchi [Kartz Media Works]
Special Thanks
Yoshihiro Watanabe[Ishikawa Watanabe Laboratory,University of Tokyo]
Masatoshi Ishikawa[Ishikawa Watanabe Laboratory,University of Tokyo]
Tomoaki Teshima[Exvision]
Takeshi Yuasa, Kiwamu Sumino, Hiroshi Watase, Toru Yamashita
Atsuko Kushima, Tomoaki Kiguchi
Como algo saído de um filme de sci-fi, o especialista em computação gráfica Nobumichi Asai e uma equipe de desenvolvedores criativos e diretores desenvolveram “Omote”, um Face Tracking com projeção em tempo real. Usando a tecnologia state-of-the-art, o conceito de mapeamento visual transforma o rosto de uma modelo em padrões de fascinação com um equivalente eletrônico de maquiagem.
O rosto dessa modelo torna-se uma obra de arte. Uma tela viva que evolui e se transforma.

Unindo arte e tecnologia, a Nobumichi Asai e o Studio WOW criaram uma experiência visual para a campanha #ExperienceAwesome da Intel, utilizando mapeamento de projeção 3D.

O processo começou pela digitalização do rosto da modelo. Em seguida, foram criados motion graphics em cima de um modelo 3D de sua cabeça. O rastreamento dos movimentos em tempo real garante que a arte acompanhe os movimentos da modelo.

Esse projeto, que demonstra o potencial artístico da tecnologia de face mapping, levou cerca de três meses para ser desenvolvido.
Le média-artiste japonais Nobumichi Asai du studio de design WOW émerveille et brouille nos sens avec ses projections en mapping facial et en holographie. Interview techno-mystique à l’occasion de l’exposition de sa dernière pièce à Tokyo.
Tokyo, de notre correspondante

Depuis le succès international de Omote (2015), l’application spectaculaire de mapping facial en temps réel, Nobumichi Asai enchaîne les projets qui explorent cette technologie de la juxtaposition, notamment dans les arts de la scène. L’œuvre holographique Light of Birth, actuellement exposée dans le cadre de Media Ambition Tokyo au Japon, met encore plus en évidence notre perception brouillée entre virtuel et réel. En interview, ce maître de l’illusion réelle part de la science et touche à la théologie. D’ailleurs, qu’est-ce que la réalité ?

Quel est le rapport entre vos deux œuvres emblématiques, le mapping facial d’«Omote» et l’hologramme «Light of Birth»?

Ce sont deux œuvres similaires utilisant le même code – Open CV. L’espace infographique de l’ordinateur et l’espace physique sont juxtaposés afin de faire apparaître les images du PC dans l’espace réel. Ces images suivent et réagissent aux mouvements du sujet.

Vous avez utilisé des programmes open source pour les créer?

J’ai utilisé OpenCV, mais elles auraient pu être créées sans : OpenCV est une compilation de lois mathématiques et physiques converties en code. Le code qui sert à calibrer l’espace dans ces œuvres utilise le concept déterministe de l’homographie en mathématiques. Lancé en 1999, le projet OpenCV d’Intel est maintenant disponible en open source.

Les lois universelles des mathématiques et de la physique sont ouvertes et disponibles à tout le monde. En général, les industries qui développent les codes les protègent avec des brevets. C’est pour cette raison que j’apprécie profondément le fait qu’Intel offre OpenCV en open source. Parce que les choses qui nous sont essentielles sont partagées par tous, tout comme l’eau et l’air.

«Connected Colors», WOW (Nobumichi Asai), 2016:

Selon vous, le monde naturel peut être décomposé en lois algorithmiques. Qu’entendez-vous par la phrase «Au commencement était le Code»?

Quand on examine de près le monde naturel, on se rend compte que toutes sortes de choses ont la même structure que le code. Par exemple, les êtres vivants sont définis par l’ADN. Les quatre bases A, T, G et C se combinent pour constituer 21 types d’acides aminés. Ce sont ces mêmes 21 types d’acides aminés qui se combinent pour former les innombrables variations de protéines et d’enzymes moléculaires qui constituent une cellule. A leur tour, ces cellules forment les systèmes et les organes qui constituent le corps humain. On compte plus de 37 trillions de ces cellules.

La façon dont tout cela fonctionne ressemble beaucoup à la programmation informatique. Dans l’ordinateur, la suite de 0 et de 1 forme les instructions de base, qui se combinent pour créer des modules, lesquels contiennent les fonctions de base, ou les classes. Celles-ci se combinent à leur tour pour créer des systèmes aux fonctionnalités complexes.

En termes de mécanique quantique, on pourrait dire que la nature (l’espace) est elle-même constituée d’opérations mathématiques. Par exemple, une réaction chimique telle que H2 + O2 -> 2H2O suit des règles fixes et peut être interprétée en tant qu’opération mathématique. En outre, les arrangements d’atomes et de molécules représentent le code et peuvent être considérés comme des variables. Ainsi, on peut dire que le monde est né d’innombrables processus parallèles qui ont lieu simultanément. Ceci se transpose à la notion de réalité virtuelle omnidirectionnelle qui résulte de calculs parallèles dans une unité de traitement général (GPU).

Je pense que l’espace et le monde naturel sont générés par le code (= lois). Ainsi, j’ai montré à travers cette œuvre holographique la génération de l’existence physique par le code.

«Light of Birth», WOW (Nobumichi Asai), 2016:

Il existe une phrase dans les textes bouddhistes: « Des devoirs illimités proviennent d’un seul principe. » Elle prêche que toutes les choses sur Terre proviennent d’un seul principe d’origine qui règne sur l’univers. Les sages auraient-ils profondément capturé l’essentiel de notre univers ?

Jusqu’ici j’ai parlé du matérialisme numérique, mais je ne suis pas un matérialiste, parce que même si les humains sont composés d’un conglomérat d’atomes, le fait de conglomérer un tas d’atomes ne fait pas l’humain.

C’est dans ce cadre qu’opère un pouvoir mystique et miraculeux qui est irréversible. Le code complexe et sophistiqué qui a créé toutes les formes de vie n’est pas né au hasard du jour au lendemain. Alors qui est-ce qui a écrit le code qui sépare les êtres vivants des choses sans vie ? Je pense que « l’existence » des « choses » qui ne sont pas des choses est en train de se découper de l’éther grâce à l’évolution de la technologie.

Quelles applications futures envisagez-vous pour cette technologie de plus en plus précise, que ce soit le mapping sur les êtres vivants ou les hologrammes?

Aujourd’hui, d’un point de vue technologique, c’est inévitable que les images virtuelles se « réalisent ». Je sens que le vecteur de la créativité humaine est en train de traverser la frontière de l’humanité même. Les hologrammes et le mapping en vidéoprojection sont emblématiques de cette tendance sous-jacente. Autre tendance récente, le mouvement robotique (qui essaie de créer artificiellement des humains) est également influencé par ce vecteur. Avec des produits comme BigDog et Petman, l’entreprise Boston Dynamics est toujours en pleine innovation.

Je vois la technologie comme faisant partie de l’évolution humaine. Je me reconnais dans le flux de cette évolution et cela m’excite. Même les secteurs de l’art et du loisir avancent à grands pas en exprimant l’évolution de la technologie et ils continueront sans doute de surprendre et d’exciter les gens.

Le photographe japonais Nobuyoshi Araki a dit : « Le visage humain est en fait un nu. » Le visage de la personne dit tout d’elle : ses émotions, son âge, son état physique, son caractère, son individualité, ses idéaux… Le fait de contrôler l’image de ce visage détient un potentiel d’expression énorme.

Par exemple, dans notre récent projet de clip vidéo pour la chanson Ending Theme d’Amazarashi, nous avons relevé le défi de transformer l’artiste, qui a une trentaine d’années en réalité, à différentes étapes de sa vie entre 20 et 100 ans. L’expérience de voir la représentation de la vieillesse et de la mort en l’espace de quelques secondes nous rappelle qu’une vie humaine n’est pas éternelle, mais a ses limites.

«Ending Theme», Amazarashi, clip réalisé par WOW, 2016:

L’intérêt de cette représentation n’est pas celui de la fiction comme dans un film, mais plutôt le fait qu’elle représente « quelque chose qui se passe ici et maintenant ». C’est-à-dire que c’est présenté comme « une expérience vraie » plutôt qu’une simulation.

Je pense qu’à l’avenir, les progrès en ce qui concerne la vitesse des ordinateurs, les capteurs et les projets nous donneront des réalités de plus en plus « vivantes » plutôt que précises. A l’avenir, ces représentations qui utilisent ces technologies de vision artificielle vont rapidement brouiller la frontière entre le réel et le virtuel. Mais pour les humains, la différence en terme de signification entre réel et virtuel n’existe pas. Pour le cerveau, les expériences réelles et les expériences virtuelles sont toutes les deux encodées. C’est parce qu’elles sont équivalentes, rien de plus que des signaux électroniques abstraits.

«Le plus important, ce n’est pas “réel ou virtuel” mais tout simplement “vérité ou non-vérité”.»

Par exemple, si l’on part du principe que les billets de banque et les pièces de monnaie sont réels, alors l’argent sur un compte en banque est virtuel (rien que des chiffres, un code). Si c’est une vérité, on peut l’utiliser ; si c’est une non-vérité, on ne peut pas. Autrement dit, la seule chose qui importe, c’est : est-ce que sa signification est une réalité, ou pas ?

Quels sont vos projets?

En ce moment, je fabrique un dispositif qui projette votre visage en tant qu’« objet 3D » à distance et en temps réel. A l’époque de Skype, ce qui m’intéresse c’est la téléportation des humains en tant qu’« objets » et non pas en tant qu’« images ». Cela ressemblerait au dispositif de téléportation dans Star Trek. A vrai dire, on peut déjà faire les choses qui ont été faites dans le film Avatar. En terminologie de réalité virtuelle, on l’appelle « télexistence ». C’est un thème majeur des technologies associées.

C’est intéressant de réfléchir à ces notions sous le prisme des religions et des visions du monde traditionnelles. Les concepts du « paradis » chrétien et de la « terre pure à l’ouest » bouddhiste nous rappellent que la conscience humaine est peut-être située en un point lointain et ne peut être transférée sur notre planète que par la vie ou la mort. Qui sait, il se peut que le monde que l’on croit réel ne soit rien qu’un espace virtuel comme Matrix ?