三亚后海湾的晨曦初露,字节跳动员工技术社团“跳跳糖”的志愿者陈哲远蹲在甲板上,轻轻摇晃手里的防水平板——屏幕上的AI模型正实时圈出海水里每一块珊瑚的轮廓,自动标注“健康”“白化”“破损”三种状态。仅0.3秒,识别完成,数据同步上传云端。过去,科研团队要完成同样的工作,需要潜水员手持相机下潜、人工比对照片至少三天。如今,这套由“跳跳糖”为公益机构“亿角鲸”量身开发的珊瑚监测App,把60%的人工采样时间压缩成一键智能,让科研效率与珊瑚保护同步跃入“云端时代”。
一、把技术“跳”进大海:跳跳糖公益孵化计划诞生
“跳跳糖”取名于字节跳动的“跳”与“糖”——寓意用技术的甜蜜回赠社会。2023年,社团在海南举办hackathon,议题只有一个:如何用AI保护珊瑚礁?珊瑚覆盖面积不足全球海底0.2%,却为四分之一海洋生物提供家园。过去30年,气候变化、废水排放导致全球珊瑚减少50%,传统人工监测耗时长、成本高、数据碎片化。
陈哲远和10名来自算法、产品、前端、硬件部门的同事组成“珊瑚星球”小队,决定用计算机视觉解决痛点。48小时极限编程后,他们做出第一版Demo:基于YOLOv7的珊瑚识别模型,可区分6种珊瑚形态与3种健康状态,准确率达到87%。Demo被“亿角鲸”一眼相中,双方随即启动“跳跳糖技术公益孵化计划”——字节跳动提供算力、工程师工时和5万元种子基金;“亿角鲸”开放10万张水下珊瑚照片与30个监测点位;三亚市林业局出具海域使用许可——技术、数据、政策三箭齐发。
二、AI珊瑚识别模型:从87%到96%的“甜蜜跳跃”
模型初版虽好,但海水浑浊、光线散射、珊瑚形态重叠导致误检率居高不下。团队引入Vision Transformer架构,把图片切成16×16小块做自注意力,再融合色彩校正与水下白平衡算法,让模型“戴上潜水镜”。同时,他们使用字节自研的“云雀”分布式训练框架,调用800张A100显卡,3小时完成一轮迭代,效率较单机提升18倍。
2024年4月,模型mAP(平均精度)提升到96%,可在0.3秒内完成2048×2048分辨率图像的实例分割,误差小于2像素。为了适应边缘计算,他们把模型蒸馏到18MB,装进一台防水平板,离线也能跑,电池续航8小时,潜水员亲切地称它“水下小钢炮”。
三、潜水员数据培训:让科研一线成为“技术粉丝”
再聪明的AI,也需要高质量数据输入。社团与“亿角鲸”联合举办6期“潜水员数据官”训练营,免费教授水下摄影规范、App操作流程、紧急故障排除。首批42名潜水员来自海南大学、南海所、民间公益组织,他们在三亚、西沙、南沙30个监测点布设固定拍摄桩,每月同步采集图像1.2万张。
训练现场,教练把平板塞进防水壳,让学员在3米深池练习“稳、准、快”:
- 稳——双手抱胸夹紧,减少抖动;
- 准——珊瑚占据画面60%以上,避免俯拍变形;
- 快——30秒完成一张有效拍摄,节省气瓶。
结业考核通过后,潜水员获得“珊瑚数据官”电子徽章,数据上传量与质量计入排行榜,前10名可获得字节跳动实习推荐资格。游戏化激励让枯燥的数据采集变成“海底打卡”,平均每人每月上传照片量提升3倍。
四、科普短视频矩阵:让保护珊瑚成为“全民热搜”
技术落地只是第一步,真正决定珊瑚命运的,是公众认知。社团发挥平台优势,打造“海之密语”短视频矩阵:
- 抖音话题#AI守护珊瑚挑战#邀请用户上传滤镜,体验“白化珊瑚”一秒复活;
- 头条号《海底程序员》专栏,用漫画讲解量子点白化检测原理;
- 西瓜视频推出4K纪录短片《珊瑚星球》,三个月播放破1200万。
同时,他们与海南中学、三亚实验小学合作,把App装进STEAM课堂,学生通过VR眼镜“潜入”海底,用AI模型给珊瑚“体检”。2024年世界海洋日,纪录短片入选联合国环境规划署线上影展,弹幕刷屏:“原来AI也能这么浪漫!”
五、云端守护,未来已来
一年过去,30个监测点完成4轮全覆盖,累计识别珊瑚个体超过18万株,科研团队人工采样时间节省60%,相关论文2篇被《Coral Reefs》接收。三亚市林业局依据数据调整海岸开发规划,新增2平方公里珊瑚保育区。
下一步,团队计划:
- 引入声光融合技术,开发“夜光珊瑚”监测模型,研究荧光蛋白变化;
- 把系统移植到水下机器人(ROV),实现50米深自动巡航;
- 开源轻量级模型,供全球公益组织免费使用,让每一片海域都能“云端守护”。
“跳跳糖”技术公益孵化计划,用一行行代码让珊瑚在数字世界重生,也让更多年轻人相信:技术向善,不是口号,而是每一次敲击键盘的回车。正如志愿者陈哲远所说:“当AI遇见大海,我们不只是训练模型,更是在训练一颗对地球负责的心。”
