AI đang giúp thúc đẩy khoa học âm sinh học để cứu các loài nguy cấp như thế nào
Khoa học
- 7 min read
AI đang thúc đẩy khoa học âm thanh sinh học để cứu các loài nguy cấp như thế nào
Ngày 7 tháng 8 năm 2025 | Khoa học
Nhóm Perch
Mô hình Perch mới của chúng tôi giúp các nhà bảo tồn phân tích âm thanh nhanh hơn để bảo vệ các loài nguy cấp, từ chim săn mồi ở Hawaii đến các rạn san hô.
Một trong những cách các nhà khoa học bảo vệ sức khỏe của các hệ sinh thái hoang dã trên hành tinh của chúng ta là sử dụng micro (hoặc hydrophone dưới nước) để thu thập lượng lớn dữ liệu âm thanh chứa đựng nhiều tiếng kêu của chim, ếch, côn trùng, cá voi, cá và nhiều loài khác. Những bản ghi âm này có thể cho chúng ta biết nhiều điều về các loài động vật có mặt trong một khu vực nhất định, cùng với các manh mối khác về sức khỏe của hệ sinh thái đó. Tuy nhiên, việc xử lý lượng dữ liệu khổng lồ này vẫn là một nhiệm vụ đầy thách thức.
Hôm nay, chúng tôi ra mắt bản cập nhật cho Perch, mô hình AI của chúng tôi được thiết kế để giúp các nhà bảo tồn phân tích dữ liệu âm thanh sinh học. Mô hình mới này có khả năng dự đoán loài chim vượt trội hơn so với các mô hình trước đây. Nó có thể thích ứng tốt hơn với môi trường mới, đặc biệt là môi trường dưới nước như các rạn san hô. Mô hình được đào tạo trên nhiều loại động vật hơn, bao gồm động vật có vú, lưỡng cư và cả tiếng ồn do con người tạo ra — tổng cộng lượng dữ liệu nhiều gần gấp đôi, từ các nguồn mở như Xeno-Canto và iNaturalist. Perch có thể làm rõ các cảnh âm thanh phức tạp trong hàng nghìn, thậm chí hàng triệu giờ dữ liệu âm thanh. Và nó rất linh hoạt, có thể giúp trả lời nhiều loại câu hỏi khác nhau, từ “có bao nhiêu con non đang được sinh ra” đến “có bao nhiêu cá thể động vật có mặt trong một khu vực nhất định”.
Để giúp các nhà khoa học bảo vệ hệ sinh thái hành tinh của chúng ta, chúng tôi phát hành phiên bản Perch mới này dưới dạng mô hình mở và cung cấp trên Kaggle.
Perch không chỉ nhận dạng âm thanh của các loài chim. Mô hình mới của chúng tôi được đào tạo trên nhiều loại động vật hơn bao gồm động vật có vú, lưỡng cư và tiếng ồn của con người.
Những câu chuyện thành công: Perch trong thực địa
Kể từ khi ra mắt lần đầu vào năm 2023, phiên bản Perch ban đầu đã được tải xuống hơn 250.000 lần và các giải pháp có sẵn của nó hiện đã được tích hợp vào các công cụ cho các nhà sinh vật học đang làm việc. Ví dụ, thư viện tìm kiếm vector của Perch hiện là một phần của BirdNet Analyzer do Cornell phát triển và được sử dụng rộng rãi.
Ngoài ra, Perch còn giúp BirdLife Australia và Đài quan sát Âm thanh Úc xây dựng các bộ phân loại cho nhiều loài đặc hữu của Úc. Ví dụ, các công cụ của chúng tôi đã giúp phát hiện một quần thể mới của loài Chim Hút Mật Đồng Bằng khó tìm, vốn đã biến mất trong 30 năm qua ở phía tây Melbourne.
“Đây là một khám phá đáng kinh ngạc - giám sát âm thanh như thế này sẽ giúp định hình tương lai của nhiều loài chim đang bị đe dọa.”
Paul Roe Trưởng khoa Nghiên cứu, Đại học James Cook, Úc
Công việc gần đây cũng cho thấy phiên bản Perch trước đó có thể được sử dụng để nhận dạng cá thể chim và theo dõi số lượng chim, có khả năng giảm bớt nhu cầu về các nghiên cứu bắt và thả để theo dõi quần thể.
Cuối cùng, các nhà sinh vật học từ Phòng thí nghiệm Âm thanh Sinh học LOHE tại Đại học Hawaiʻi đã sử dụng Perch để giám sát và bảo vệ các quần thể chim săn mồi, vốn có ý nghĩa quan trọng trong thần thoại Hawaii và đang đối mặt với nguy cơ tuyệt chủng do bệnh sốt rét do muỗi không bản địa lây lan. Perch đã giúp Phòng thí nghiệm LOHE tìm thấy âm thanh của chim săn mồi nhanh hơn gần 50 lần so với phương pháp thông thường của họ, cho phép họ giám sát nhiều loài chim săn mồi hơn trên các khu vực rộng lớn hơn. Chúng tôi kỳ vọng mô hình mới sẽ còn đẩy nhanh các nỗ lực này hơn nữa.
Gỡ rối Playlist của Hành tinh
Mô hình Perch có thể dự đoán những loài nào có mặt trong một bản ghi âm, nhưng đó chỉ là một phần của câu chuyện: Chúng tôi cũng cung cấp các công cụ cho phép các nhà khoa học nhanh chóng xây dựng các bộ phân loại mới chỉ từ một ví dụ duy nhất và theo dõi các loài mà có ít dữ liệu huấn luyện hoặc cho các âm thanh rất cụ thể như tiếng kêu của chim non. Khi có một ví dụ về âm thanh, tìm kiếm vector với Perch sẽ trả về những âm thanh tương tự nhất trong một tập dữ liệu. Sau đó, một chuyên gia địa phương có thể đánh dấu kết quả tìm kiếm là có liên quan hoặc không liên quan để huấn luyện một bộ phân loại.
Kết hợp cả hai phương pháp: tìm kiếm vector và học tập tích cực với mô hình nhúng mạnh mẽ, được gọi là mô hình hóa linh hoạt (agile modeling). Bài báo gần đây của chúng tôi - “The Search for Squawk: Agile Modeling in Bioacoustics” - cho thấy phương pháp này hoạt động trên cả chim và rạn san hô, cho phép tạo ra các bộ phân loại chất lượng cao chỉ trong vòng chưa đầy một giờ.
Hướng tới tương lai: Tương lai của âm thanh sinh học
Cùng nhau, các mô hình và phương pháp của chúng tôi đang giúp tối đa hóa tác động của các nỗ lực bảo tồn, dành nhiều thời gian và nguồn lực hơn cho công việc thực tế có ý nghĩa. Từ rừng Hawaii đến các rạn san hô, dự án Perch thể hiện tác động sâu sắc mà chúng ta có thể tạo ra khi áp dụng chuyên môn kỹ thuật của mình vào những thách thức cấp bách nhất của thế giới. Mỗi bộ phân loại được xây dựng và mỗi giờ dữ liệu được phân tích sẽ đưa chúng ta đến gần hơn với một thế giới mà âm thanh của hành tinh của chúng ta là sự phong phú của đa dạng sinh học đang phát triển mạnh mẽ.
Tìm hiểu thêm
- Tải xuống mô hình Perch mới từ Kaggle Models
- Đọc bài báo của chúng tôi trên arxiv
- Đọc bài báo của chúng tôi về mô hình hóa linh hoạt cho âm thanh sinh học
- Khám phá kho lưu trữ GitHub của chúng tôi
Lời cảm ơn
Nghiên cứu này được phát triển bởi nhóm Perch: Bart van Merriënboer, Jenny Hamer, Vincent Dumoulin, Lauren Harrell và Tom Denton, cùng Otilia Stretcu từ Google Research. Chúng tôi cũng xin cảm ơn các cộng tác viên của chúng tôi, Amanda Navine và Pat Hart tại Đại học Hawaiʻi, cùng Holger Klinck, Stefan Kahl và nhóm BirdNet tại Phòng thí nghiệm Âm thanh Cornell. Và tất cả bạn bè và cộng tác viên của chúng tôi mà chúng tôi đã đề cập trong bài đăng blog này nếu chúng tôi có thêm một nghìn từ nữa.
Link bài viết gốc
- Tags:
- Ai
- August 2025
- Deepmind.google