Saúde e Bem-Estar

Japonismo

Adriano Justino
27/03/2006 02:20
Conforme a historiadora Celina Kuniyoshi, o japonismo é um fenômeno que se iniciou no século 19, quando o Ocidente redescobriu o Japão, principalmente por meio da arte. “O Japão se torna um lugar onde as pessoas inventam sonhos de uma vida diferente, exótica, encontram algo de utopia que em outro lugar desconhecem.” Ou seja, o japonismo é como o Ocidente constrói a cultura japonesa, com sua visão.