Algorithmic Urban Composition


This project aims to explore the possibilities of “urban compositions” by means of mashing up urban landscapes through the algorithmic sonication process using object detection software. As the modern city has various elements (e.g. nature, buildings, and human activities), by generating sounds through the eyes of machines, we aim to aurally re-represent alternative cityscapes. Our question is how unique sounds and spaces would be created by applying urban complexity in the field of audiovisual composition.


物体検出アルゴリズムによって、複数の都市風景を可聴化し混ぜ合わせることで、都市から音楽を紡ぐ「都市作曲」の可能性を模索する作品。自然/建築/人間など、現代都市は複数の要素から成立しており、機械の目を通してそれらの要素から音を生成することで、聴覚的に都市風景を再表象することを試みている。都市の複雑性を視聴覚作曲の領域に応用することで、どのような音と空間をつくりあげることが可能かを推論している。





This work was accepted and exhibited for the Linux Audio Conference 2019 


Date: March 25th 2019
Place: Stanford University CCRMA Listening Room


Credit
-
Artist: Kenta Tanaka and Kye Shimizu
-
Kenta Tanaka: Composition, Sound Programming
Kye Shimizu: Machine Learning Engineering, Visual Programming
Ryo Yumoto: Technical Support
Yuki Aizawa: Video Filming
Shinya Fujii: Academic Adviser