Google снова удивляет. На этот раз моделью Perch 2.0, созданной для работы с биоакустикой. Если раньше учёные сутками сидели с диктофонами и вручную прослушивали записи, то теперь всё это делает ИИ. Как это работает: 1️⃣ Аудио → картинка. Модель превращает звук в спектрограмму — что-то вроде снимка того, как «выглядит» звук. 2️⃣ Сверточная магия. Нейросеть извлекает из этого изображения эмбеддинги — векторы размерности 1536, которые описывают каждый звук. 3️⃣ Три головы — три задачи. Система классифицирует, объясняет, откуда звук, и позволяет интерпретировать результаты. Это открывает огромные возможности — от отслеживания популяций редких животных до поиска новых видов. И всё это — без GPU, на модели с всего 12 млн параметров. Слушает Perch 2.0 аж 15 000 видов — даже тех, кто прячется под водой. К слову нейросеть уже успела сделать несколько открытий. Например: 🐦 В Австралии нашли новые популяции птиц там, где их считали почти исчезнувшими. 🐝 На Гавайях ускорили поиск редких медоедов в 50 раз — теперь учёные смогут быстрее спасать их от угроз. И самое приятное — Google выложила модель и датасеты в опенсорс. Так что теперь любой биолог или энтузиаст может «включить суперслух» и послушать природу на новом уровне. Можно сказать, что Perch 2.0 — это Shazam для дикой природы, только без рекламы и с огромными возможностями.