2. 中国水产科学研究院南海水产研究所,农业农村部南海渔业资源开发利用重点实验室,广东 广州 510300
3. 中国水产科学研究院南海水产研究所热带水产研究开发中心,海南 三亚 572018
2. South China Sea Fisheries Research Institute, Chinese Academy of Fishery Sciences; Key Laboratory of South China Sea Fishery Resources Exploitation & Utilization, Ministry of Agriculture and Rural Affairs, Guangzhou 510300, China
3. Tropical Fisheries Research and Development Center, South China Sea Fisheries Research Institute, Chinese Academy of Fishery Sciences, Sanya 572018, China
养殖鱼群数量监测是水产养殖管理生产中的关键环节,它为水产动物的饲料投放、密度调整及经济效益评估提供了重要数据支持[1]。然而,现有监测方法在实际应用过程中仍面临诸多挑战。标记重捕法(mark-recapture method)因依赖多个特定假设而易产生误差[2-4],并且对生物的生活造成影响。而光学监测方法由于水体光线条件和物体遮挡的问题,在复杂水下环境中表现出局限性[5-7]。近年来,声呐技术以其对水下复杂环境的适应性,逐渐成为监测鱼群数量的新方法[8]。基于声呐设备的鱼群识别与计数技术已在国内外取得一定进展,例如通过前视声呐和成像声呐扫描水域计算鱼群数量,但这些方法在精确获取鱼群分布方面尚存不足[9-10]。
随着计算机技术的发展,传统机器学习方法与深度学习模型在鱼群监测中的应用逐步显现[11]。传统方法主要依赖图像分割与分类技术[12],利用图像边缘检测、图像分割、分类器方法对鱼群进行统计,虽具备一定准确性,但在密集鱼群计数及动态监测中表现出不足[13-14]。深度学习技术的引入,特别是卷积神经网络(convolutional neural network, CNN)和YOLO (You Only Look Once)系列模型,为鱼群目标检测和计数提供了强有力的算法和技术支持[15-16]。研究表明,改进的YOLO模型在密集鱼群的精确计数方面表现出色,但其主要依赖光学设备,难以在水体复杂环境中实现实时监测[17-19]。
本研究结合全向声呐和深度学习技术,提出一种基于全向声呐的实时监测鱼群数量的方法。通过全向扫描声呐覆盖整个水域,解决光学监测无法获取整体鱼群数量的问题,并结合改进的YOLO模型优化鱼群目标监测算法,实现鱼群数量的精确计数与三维空间分布重建,为水产养殖提供技术与信息支持。
1 材料与方法 1.1 实验对象与装置本研究数据于2024年8月在中国水产科学研究院南海水产研究所花都实验基地(23.42°N, 113.41°E)获取。实验中所使用的水池尺寸为4 m (长)×2.5 m (宽)×2.5 m (深)。本实验进行测试的鱼为体长27 cm左右,体高10 cm左右,体重700 g左右的罗非鱼(Oreochromis sp.),如图1所示。
![]() |
图1 罗非鱼体长和体高 Fig. 1 Tilapia body length and height |
本次实验所使用的声呐为ScanFish-II全向扫描声呐(图2),此全向声呐能够通过旋转换能器,将数据传输到电脑端,并实时获取声呐影像。
![]() |
图2 ScanFish-II全向扫描声呐 Fig. 2 ScanFish-II omnidirectional scanning sonar |
为了全面获取水池中的鱼群数据,本研究采用全向声呐扫描技术进行监测。实验中使用的ScanFish-II全向扫描声呐设备被安装在伸缩杆末端,以便精确调控声呐设备的高度与位置。伸缩杆通过铁架固定,确保声呐设备稳固地置于水池中心位置(图3)。在实验过程中,声呐设备始终保持在水池中心并完全浸入水下,以保证数据采集的一致性与精确性。
![]() |
图3 实验装置示意图a. 实验装置主视图;b. 实验装置侧视图;c. 实验装置俯视图;d. 实验装置实物图. Fig. 3 Schematic diagram of experimental devicea. Main view of experimental device; b. Side view of experimental device; c. Top view of experimental device; d. Physical picture of experimental device. |
伸缩杆最大伸长至230 cm,确保设备安全运行的情况下,能够覆盖鱼群活动的深度范围。在鱼群监测过程中,声呐设备以恒定角速度进行扫描,实时获取水下声呐影像数据。同时,伸缩杆以3.2 cm/s的速度缓慢下降,确保全水体均匀扫描(图4)。数据采集过程中,实时传输的声呐影像数据通过数据传输线传至计算机,并进行记录与存储。最终,系统根据这些数据生成鱼群数量及其空间分布信息,为后续分析提供数据支持。
![]() |
图4 水下声呐扫描示意图 Fig. 4 Schematic diagram of underwater sonar scanning |
为验证监测系统的可行性与准确性,实验分为4组,分别向水池中投放50条、100条、150条和200条大小接近的罗非鱼。实验组的设计旨在模拟不同鱼群密度条件下的监测情况,全面评估系统性能。为减少人工干预对实验结果的影响,每组实验之间设有10 min的间隔,确保鱼群投放后能够恢复至自然状态,从而提高数据的可靠性与科学性。
1.3 数据处理 1.3.1 养殖鱼群监测系统养殖鱼群实时监测系统是一个多层次、高度集成的系统,其框架如图5所示。该系统包括4个层次:数据应用层、业务逻辑层、核心算法层和基础数据层。
![]() |
图5 鱼群实时监测系统框架图 Fig. 5 System framework diagram of real-time fish monitoring system |
系统处理声呐数据的流程如图6所示。首先,系统通过声呐设备获取数据,并对鱼群目标进行实时录制与识别。随后,系统将识别到的目标坐标转换为三维坐标,以实现空间分布和精确测量。为了提高精度,系统对数据中的异常点进行处理,包括移除异常点和对其合并优化,减少检测误差。最后,监测系统输出鱼群数量及其三维分布信息,并保存数据用于进一步分析。
![]() |
图6 数据处理流程图 Fig. 6 System data processing flow chart |
实时监测鱼群数量的实现原理如图7所示,系统通过PyAutoGUI模块截取声呐影像窗口截图,将获取的图像输入YOLO网络进行目标检测,并将原始图像与识别结果存储于数组中。监测流程由标识符 isFinish 控制。数据采集完成后,系统对图像进行处理,并导出为原始视频和预测视频。性能测试结果显示,基于NVIDIA 3060显卡,系统可实现每秒20帧的实时处理能力。
![]() |
图7 实时监测流程图a. 声呐图像捕获与识别部分;b. 视频导出部分. Fig. 7 Real-time monitoring flow charta. Sonar image capture and recognition section; b. Video export section. |
本系统中,无论是影像识别还是实时监测,鱼群目标检测的核心均基于目标检测技术。为平衡识别精度、模型复杂性和计算成本,本系统基于YOLOv8[20]网络结构,对其进行了两项关键优化:(1) 在颈部网络(Neck)中引入轻量级卷积方法VoVGSCSP[21],以简化模型结构;(2) 融入注意力机制CoTAttention (Co-Transformers Attention)[22],提升对复杂场景和小目标的处理能力。这些改进显著优化了模型性能,同时降低了资源消耗。改进后的网络结构[23]如图8所示。
![]() |
图8 改进的YOLOv8s网络框架 Fig. 8 Improved YOLOv8s network framework |
模型训练数据集来自鱼群声呐影像视频中随机抽取的500帧图像,经过标注后按4 : 1比例划分为训练集与验证集。训练参数包括:训练轮数300次,图片输入尺寸640×640,初始学习率0.001。最终模型用于预测鱼群目标的声呐影像结果如图9所示。
![]() |
图9 声呐影像的鱼群目标预测示例 Fig. 9 Prediction examples of fish swarm targets in sonar images |
为评估改进模型的性能,使用相同数据集与主流模型进行对比,评估指标包括精确度(P)、召回率(R)、平均精度(mAP50)及响应时间(基于NVIDIA 3060显卡的每帧图像识别速度),结果如图10所示。
![]() |
图10 改进后的模型与其他模型的对比模型响应时间是模型基于NVIDIA 3060显卡下的每一帧图像的识别速度. Fig. 10 Comparison of the improved model with other modelsThe model response time is the recognition speed of each frame of the model based on the GPU NVIDIA 3060. |
YOLO模型输出的坐标为矩形框的形式,获视频则采用屏幕坐标系,而声呐的坐标系统则为笛卡尔坐标系,因此,需要对同一图像的坐标系统进行统一转换。
YOLO模型相对矩形坐标转化为图像的屏幕坐标系公式如下:
$\left\{ \begin{array}{l} {I_x} = \left( {{x_i} + \frac{{{w_i}}}{2}} \right) \times W\\ {I_y} = \left( {{y_i} + \frac{{{h_i}}}{2}} \right) \times H \end{array} \right.$ |
其中xi, yi为矩形左上角x, y的相对坐标,wi, hi分别为矩形的相对宽度和相对长度,W, H为所生成视频的长宽分辨率,Ix, Iy为点在图像上绝对位置。
将基于图像的屏幕坐标系转化为声呐的笛卡尔坐标系的公式如下:
$\left\{ \begin{array}{l} X = \left( {{I_x} - \frac{W}{2}} \right)\\ Y = \left( { - {I_y} + \frac{H}{2}} \right) \end{array} \right.$ |
其中Ix, Iy为点在图像上绝对位置,W, H为所生成视频的长宽分辨率,X, Y为基于声呐中心的笛卡尔坐标系。
Z轴坐标基于水池深度和时间进行推算:
$Z = L \times \frac{t}{T}$ |
L为水池深度,t为当录制时长,T为总时长。
以总深度为250 m,捕获图像大小为800 px× 600 px,总时长1400帧为例,第500帧的YOLO标签:0, 0.558198, 0.467091, 0.016131, 0.0195068,将其转换为三维笛卡尔坐标系的坐标为(53.0, −13.9, 89.2)。
1.3.5 异常点处理在利用YOLO模型对水池鱼群进行声呐图像识别的过程中,系统主要面临两类异常点问题:重复点及边界与边界外点。这些异常点会导致鱼群数量的误估计。
由于鱼群在水中持续移动,同一条鱼可能在短时间内多次出现在声呐图像中,从而被重复识别,导致计数结果偏高。为纠正此类误差,系统引入基于欧氏距离的点合并策略。通过坐标比例换算,计算声呐图像中任意两点的实际空间距离。本次实验中,由于声呐水平扫描的速度大约为1.6 s/r,垂直下降速度约为3.2 cm/s,由此可得出声呐在旋转一圈后,所下降的距离约为5 cm。因此,如图11所示,如果两点之间的距离小于5 cm,则判定它们属于同一条鱼的多次回声反射,并将其合并为一个点。
![]() |
图11 重复点示意图 Fig. 11 Repeat point diagram |
由于水池围壁由固体材料构成,声呐回波较强,这些由围壁反射形成的回声与鱼群的声呐图像形态相似,易被YOLO模型误识别为鱼群,从而导致计数结果偏高。为解决该问题,系统采用空间分析方法优化数据处理,确定水池的准确边界并基于点与边界的空间关系筛选有效点,图12中,只有b为有效点,a、c均为无效点。
![]() |
图12 边界点与边界内外点示意图a. 点在边界上;b. 点在边界内;c. 点在边界外. Fig. 12 Diagram of points at the edge, inside and outsidea. Point on the edge; b. Point inside; c. Point outside. |
实验分为4组(A组:50条鱼,B组:100条鱼,C组:150条鱼,D组:200条鱼)进行鱼群数量监测,结果如图13所示。A组的测量结果在45~56之间波动,表现稳定且接近基准值50; B组的测量结果在91~109之间,数据都较为接近基准值100; C组的测量结果在125~141之间,波动较小但略低于基准值150; D组的测量结果在163~180之间,所有值均低于基准值200。
![]() |
图13 鱼群数量监测结果 Fig. 13 Monitoring results of fish quantity |
鱼群数量与识别准确率的关系如图14所示。其中,50条组的准确率分布范围为88%~98%,100条组为准确率分布范围为91%~99%,150条组准确率下降到83.3%~94%,200组准确率进一步下降到81.5%~90%。50条组与100条组的精确率比150条组与200条组的准确率要高10%左右,说明鱼组数量增加,准确率逐渐下降。
![]() |
图14 鱼群数量与识别准确率的关系 Fig. 14 The relationship between the number of individuals in fish schools and the accuracy of identification |
鱼群在水池中不同深度的分布情况如表1所示,其对应的空间分布图如图15所示。结果表明,低密度的A组和B组鱼群分布较为均匀,主要集中在水面(0~25 cm)和中下层(125~200 cm),分布较为均衡,显示出在密度较小时,鱼群在各深度层的活动无显著偏好。当鱼群密度较大时(C组和D组),分布则更加集中,主要活跃在0~150 cm的深度范围内。这可能与水池中该深度层的水温和溶氧条件较为适宜有关。
![]() |
表1 不同鱼群数量的组别在不同水层深度的鱼群空间分布 Tab. 1 Spatial distribution of fish quantity in different water depths for fish schools with different quantities of individuals |
![]() |
图15 鱼群空间分布图A组:50条鱼;B组:100条鱼;C组:150条鱼;D组:200条. Fig. 15 Spatial distribution of fishgroup A: 50 fish individuals; group B: 100 fish individuals; group C: 150 fish individuals; group D: 200 fish individuals. |
A组(鱼群数量为50条,密度为2条/m3)和B组(鱼群数量为100条,密度为4条/m3)的数据表明,系统在较小规模鱼群监测中的准确率表现优异(表2)。A组实验中,除A4组的精确度略低于90%外,其余组的监测精度均高于90%。B组的整体精度也都高于90%,其中B2组达到了99%。因此,在小规模鱼群监测中,A组和B组的所有实验结果均显示出在低密度鱼群监测中的稳定性,证明监测系统能够有效捕捉每条鱼的信息,并准确识别其数量。
![]() |
表2 较低鱼群密度下监测系统的精确率 Tab. 2 Accuracy of monitoring system at low fish density % |
这是由于:(1) 在较低密度的鱼群中,个体之间的距离较大,声呐信号的反射和接收效果较好,减少了信号重叠和干扰;(2) 全向声呐技术能够更有效地覆盖水池的各个角度,使得每条鱼的位置信息更加清晰;(3) 改进后的YOLOv8算法能对精准的对声呐图像进行处理。
2.4 较高密度下的鱼群数量监测如表3所示,随着鱼群数量的增加,系统的监测精度逐渐下降。在鱼群数量为150条时,监测的平均精度降至89.3%。尽管大部分测试保持较高精度,但不同批次之间的监测结果存在一定波动,特别是在C3实验中,监测精度下降至83.3%。这表明,当鱼群规模增至150条、密度为6条/m3时,系统的精确性受到了影响。进一步地,在D组实验中,当鱼群数量增加至200条、密度达到8条/m3时,系统的监测精度进一步下降,所有实验的平均精度均低于90%。尽管精度仍维持在80%以上,但整体监测准确性已经显著下降,表明在较高密度的鱼群条件下,系统不如低密度条件下稳定。
![]() |
表3 较高鱼群密度下监测系统的精确率 Tab. 3 Accuracy of monitoring system at high fish density % |
较高密度组精度下降可能是由以下几个原因造成的:(1) 声呐信号的散射和吸收:当鱼群密度大于4条/m3且逐渐增大时,个体之间的距离变小,导致声呐波在传播过程中发生更多的散射和吸收,降低了声呐图像中的回波信号质量,增加了识别的难度。(2) 重叠影像的干扰:在高密度鱼群中,多条鱼的影像容易重叠,带来了识别上的挑战,导致模型难以准确区分不同个体,影响了监测精度。(3) 边界反射仍存在影响:在高密度鱼群实验中,部分声呐回波来自水池边界的反射。这些回波在形态上与真实鱼群的信号较为相似,增加了系统的误判率。
3 讨论 3.1 声呐与YOLO模型在水下生物监测中的应用声呐技术在水产生物监测中具有重要作用。高频自适应分辨率成像声呐[24]和多波束前视声呐[25-26]都被运用于水下物体的监测与成像。本研究使用了全向扫描声呐获取鱼群分布的声呐图像,并通过伸缩杆将声呐对不同水层进行连续的监测,获取到一组连续的声呐影像。尽管不同类型声呐的成像会有不同,但都能运用于水下生物的监测。
在监测系统中,以YOLOv8模型作为基础来进行鱼群目标检测,并引入了轻量级卷积方法VoVGSCSP和注意力机制CoTAttention,识别准确率为83%。Shen等[27]通过 DIDSON 声呐和 YOLOv5 模型,通过在DIDSON图像的每一帧中识别鱼目标来训练识别模型,识别准确率为83.5%。Mahoro等[26]也使用YOLOv7在声呐图像上自动检测和分类鱼类,其模型的平均精度为0.79。与本研究相比,此模型略高于Mahoro等[26]的准确率,与Shen等[27]基本一致,主要原因可能是不同的声呐获取的图像有差异,并且不同模型对训练结果也有一定影响。
在本研究中,通过监测系统获取整个水体鱼群数量整体的准确率为90.9%,并且在密度较低的鱼群数量中效果较好。Schneider等[28]使用声呐图像估计鱼类和海豚数量,其数据范围为0~34条鱼以及0~3条海豚,皆为低密度生物数量下的实验。Aleyda等[29]则使用YOLOv8模型计算鳗幼苗的鱼群数量,其模型在 63只/m2的密度下表现较好,该密度也标记为低密度。尽管光学影像和声学影像有所不同,但在结果上都表现出低密度组的准确率要高于较高密度组,主要原因可能是生物数量越多,声呐图像就越复杂,识别准确率就会所有下降。
3.2 监测系统的创新与不足本研究针对传统监测方法在鱼群数量监测中效率低、精确度不足的问题,提出了一种基于全向声呐结合YOLO识别模型的鱼群实时数量监测方法。通过全向声呐技术获取水体中鱼群的声呐影像,并借助YOLOv8模型进行影像识别和鱼群分类处理。在此基础上,使用专门的统计算法对识别出的鱼群数量和空间分布进行计算。此外,系统还设计了异常点去除算法,能够有效剔除由环境噪声或其他非目标物体引起的误识别点,从而显著提高了监测数据的准确性。
监测系统通过优化的YOLO算法与全向声呐数据结合,克服了传统方法依赖假设条件多、操作复杂、影响鱼群自然行为的不足,同时也弥补了光学方法在水下复杂环境中识别精度不足的缺陷。通过将声呐影像与深度学习算法结合,系统不仅能够实时监测鱼群的数量,还可以生成三维空间分布图,为水产养殖管理提供高效、准确的数据支持。
实验过程中,鱼群的游动可能导致目标识别结果的偏差,本研究虽采用欧式距离的方法减小鱼群游动所带来的误差,但这种误差仍然客观存在,特别是在鱼群数量较多时,这种误差会更大。为提高系统在高密度鱼群监测中的准确性,未来可以考虑优化声呐设备的波束开角或引入多声呐协同工作,以减少信号干扰。同时,针对高密度鱼群的重叠问题,进一步改进YOLO模型的多目标检测算法,如引入轨迹跟踪技术或基于区域的检测算法,可能有助于提升识别精度。
4 结论本研究以罗非鱼为研究对象,利用全向声呐与鱼群数量实时监测系统相结合的实验方法,探究了不同鱼群数量下监测系统的可行性。实验结果表明,该方法在不同规模的鱼群数量监测中表现出色。在鱼群数量为50条、100条、150条和200条的实验组中,监测精确度分别达到了93.5%、94.5%、89.6%和85.8%,该方法的整体精确度为90.9%,表明其在鱼群数量估算方面的稳定性。其中,在较小规模鱼群的监测中,系统的精度表现尤为优异,能够精确捕捉和估算鱼群的数量及空间分布。
未来研究可针对较高密度鱼群监测方法进行改良,通过解决由于鱼群运动对监测造成的影响,提高数量监测精确度,有助于进一步完善水产养殖生物量的统计方法,为该领域的研究提供更多科学的参考依据。
[1] |
Li P L, Zhang S M, Shen L, et al. Research progress in fish tracking technology based on deep learning[J]. Fishery Modernization, 2024, 51(2): 1-13. [李鹏龙,张胜茂,沈烈,等. 基于深度学习的鱼类跟踪技术研究进展[J]. 渔业现代化,2024, 51(2): 1-13.].》Google Scholar
|
[2] |
Li Y H. A review on estimating population size of large and medium-sized mammals[J]. Biodiversity Science, 2021, 29(12): 1700-1717. [李月辉. 大中型兽类种群数量估算的研究进展[J]. 生物多样性,2021, 29(12): 1700-1717.].》Google Scholar
|
[3] |
Yuan S, Li X, Hou S J, et al. Estimating the population density of desert rodents using a camera trap method[J]. Pratacultural Science, 2021, 38(3): 571-579. [袁帅,李鑫,侯帅君,等. 应用红外相机陷阱法估计荒漠啮齿动物种群密度[J]. 草业科学,2021, 38(3): 571-579.].》Google Scholar
|
[4] |
Pot W, Noakes D L G, Ferguson M M, et al. Quantitative sampling of fishes in a simple system: Failure of conventional methods[J]. Hydrobiologia, 1984, 114(3): 249-254..》Google Scholar
|
[5] |
Luo Y H, Cao X, Zhang J T, et al. A review of underwater optical image super-resolution reconstruction based on deep learning[J]. Digital Ocean & Underwater Warfare, 2023, 6(1): 17-33. [罗逸豪,曹翔,张钧陶,等. 基于深度学习的水下光学图像超分辨率重建综述[J]. 数字海洋与水下攻防,2023, 6(1): 17-33.].》Google Scholar
|
[6] |
Liu S J, Tu X Y, Tian C F, et al. Research on the counting system of fish suction pump based on machine vision[J]. Fishery Modernization, 2020, 47(5): 45-51. [刘世晶,涂雪滢,田昌凤,等. 基于机器视觉的吸鱼泵过鱼量计数系统试验研究[J]. 渔业现代化,2020, 47(5): 45-51.].》Google Scholar
|
[7] |
Lin K, Zhou C, Xu D M, et al. Three-dimensional location of target fish by monocular infrared imaging sensor based on a L–z correlation model[J]. Infrared Physics & Technology, 2018, 88: 106-113..》Google Scholar
|
[8] |
Zhang H Y, Li Z B, Li W R, et al. Review of research on aquaculture counting based on machine vision[J]. Journal of Computer Applications, 2023, 43(9): 2970-2982. [张涵钰,李振波,李蔚然,等. 基于机器视觉的水产养殖计数研究综述[J]. 计算机应用,2023, 43(9): 2970-2982.].》Google Scholar
|
[9] |
Jing D X, Zhou H Y, Han J, et al. Fish abundance estimation based on an imaging sonar[J]. Journal of Applied Acoustics, 2019, 38(4): 705-711. [荆丹翔,周晗昀,韩军,等. 基于成像声呐DIDSON的水域内鱼群数量估计方法[J]. 应用声学,2019, 38(4): 705-711.].》Google Scholar
|
[10] |
Zhu J, Feng L. Fish recognition and counting method based on sonar images[J]. Journal of Nanjing University of Science and Technology, 2023, 47(6): 782-789. [朱俊,封磊. 基于声呐图像的鱼群识别与计数方法[J]. 南京理工大学学报,2023, 47(6): 782-789.].》Google Scholar
|
[11] |
Zhang S M, Li J K, Tang F H, et al. Research progress on fish farming monitoring based on deep learning technology[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2024, 40(5): 1-13. [张胜茂,李佳康,唐峰华,等. 基于深度学习的鱼类养殖监测研究进展[J]. 农业工程学报,2024, 40(5): 1-13.].》Google Scholar
|
[12] |
Dewan J, Gele A, Fulari O, et al. Fish detection and classification[C]// Proceedings of the 2022 6th International Conference on Computing, Communication, Control and Automation (ICCUBEA). Piscataway: IEEE, 2022: 1-5..》Google Scholar
|
[13] |
Zou L, Wang Y, Chen Z H, et al. Research on fish counting and measurement methods based on image processing[J]. Computer Knowledge and Technology, 2024, 20(2): 24-26, 46. [邹立,汪雅,陈志辉,等. 基于图像处理的鱼类计数与测量方法研究[J]. 电脑知识与技术,2024, 20(2): 24-26, 46.].》Google Scholar
|
[14] |
Fan L Z, Liu Y. Automate fry counting using computer vision and multi-class least squares support vector machine[J]. Aquaculture, 2013, 380-383: 91-98..》Google Scholar
|
[15] |
Kandimalla V, Richard M, Smith F, et al. Automated detection, classification and counting of fish in fish passages with deep learning[J]. Frontiers in Marine Science, 2022, 8: 823173..》Google Scholar
|
[16] |
Zhang S. Research on fish shoal density estimation method based on deep learning[D]. Tianjin: Tianjin University of Science & Technology, 2020. [张松. 基于深度学习的鱼群密度估计方法研究[D]. 天津:天津科技大学,2020.].》Google Scholar
|
[17] |
Sun M Z, Li W S, Jiao Z H, et al. A multi-target tracking platform for zebrafish based on deep neural network[C]// Proceedings of the 2019 IEEE 9th Annual International Conference on CYBER Technology in Automation, Control, and Intelligent Systems (CYBER). Piscataway: IEEE, 2019: 637-642..》Google Scholar
|
[18] |
Shen J Y, Li L Y, Dai Y L, et al. A fish detecting and monitoring system based on YOLO algorithm[J]. Journal of Suzhou University of Science and Technology (Natural Science Edition), 2020, 37(3): 68-73. [沈军宇,李林燕,戴永良,等. 基于YOLO算法的鱼群探测监控系统[J]. 苏州科技大学学报(自然科学版), 2020, 37(3): 68-73.].》Google Scholar
|
[19] |
Li Y J, Hu Z Y, Tu W, et al. Dense fish population counting detection based on improved YOLOv7[J]. Journal of Guangdong Ocean University, 2024, 44(2): 115-123. [李尹佳,胡泽元,涂万,等. 基于改进YOLOv7的密集鱼群计数检测[J]. 广东海洋大学学报,2024, 44(2): 115-123.].》Google Scholar
|
[20] |
Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2016: 779-788..》Google Scholar
|
[21] |
Li H L, Li J, Wei H B, et al. Slim-neck by GSConv: A lightweight-design for real-time detector architectures[J]. Journal of Real-Time Image Processing, 2024, 21(3): Article No.62..》Google Scholar
|
[22] |
Li Y H, Yao T, Pan Y W, et al. Contextual transformer networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2023, 45(2): 1489-1500..》Google Scholar
|
[23] |
Hu J Z, Sun J L, Huang X H, et al. A method for estimating quantity of Trachinotus ovatus in marine cage aquaculture based on high-frequency horizontal mechanical scanning sonar image[J]. South China Fisheries Science, 2024, 20(5): 113-125. [胡家祯,孙佳龙,黄小华,等. 基于高频水平机械扫描式声呐图像的海水网箱养殖卵形鲳鲹数量估算方法[J]. 南方水产科学,2024, 20(5): 113-125.].》Google Scholar
|
[24] |
Jones R E, Griffin R A, Unsworth R K F. Adaptive Resolution Imaging Sonar (ARIS) as a tool for marine fish identification[J]. Fisheries Research, 2021, 243: 106092..》Google Scholar
|
[25] |
Xie K B, Yang J, Qiu K. A dataset with multibeam forward-looking sonar for underwater object detection[J]. Scientific Data, 2022, 9(1): Article No.739..》Google Scholar
|
[26] |
Mahoro E, Akhloufi M A. Automated fish detection and classification on sonar images using detection transformer and YOLOv7[C]// Sixteenth International Conference on Quality Control by Artificial Vision. Washington: SPIE, 2023: 9-16..》Google Scholar
|
[27] |
Shen W, Liu M Q, Lu Q S, et al. A fish target identification and counting method based on DIDSON sonar and YOLOv5 model[J]. Fishes, 2024, 9(9): 346..》Google Scholar
|
[28] |
Schneider S, Zhuang A. Counting fish and dolphins in sonar images using deep learning[EB/OL]. https://arxiv.org/pdf/ 2007.12808v1..》Google Scholar
|
[29] |
Aleyda S, Jaya I, Iqbal M. Object tracking-based deep learning for calculating the quantity of eel seedlings (Anguilla bicolor)[J]. BIO Web of Conferences, 2024, 106: Article No.01006..》Google Scholar
|