[go: up one dir, main page]

JP2025004533A - Crop Detection System - Google Patents

Crop Detection System Download PDF

Info

Publication number
JP2025004533A
JP2025004533A JP2023104267A JP2023104267A JP2025004533A JP 2025004533 A JP2025004533 A JP 2025004533A JP 2023104267 A JP2023104267 A JP 2023104267A JP 2023104267 A JP2023104267 A JP 2023104267A JP 2025004533 A JP2025004533 A JP 2025004533A
Authority
JP
Japan
Prior art keywords
information
underground
crop
ground
work vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023104267A
Other languages
Japanese (ja)
Inventor
純一 湯浅
Junichi Yuasa
拓也 玉井
Takuya TAMAI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP2023104267A priority Critical patent/JP2025004533A/en
Publication of JP2025004533A publication Critical patent/JP2025004533A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

To provide a crop detection system that facilitates the identification of the state of crops, including underground parts, planted in a field.SOLUTION: The present invention provides a crop detection system that detects a crop in a field. The crop detection system includes: a first sensor for detecting above-ground information, which is information on the above-ground part of the crop; a second sensor for detecting underground information, which is information on the underground part of the crop; and an information processing device for estimating the entire crop, including both the above-ground and underground parts, based on the above-ground information and the underground information.SELECTED DRAWING: Figure 4

Description

本開示は、圃場における作物検知システムに関する。 This disclosure relates to a crop detection system for farm fields.

従来、圃場の作物を管理するための作物検知システムが知られている。そのようなシステムに関連する技術が特許文献1または2に記載されている。 Conventionally, crop detection systems for managing crops in fields are known. Technologies related to such systems are described in Patent Documents 1 and 2.

特許文献1に記載の技術によれば、圃場を上空から撮像した空撮画像の解析によって農作物の植生指数が算出される。また、特許文献2に記載の技術によれば、無人飛行体に設けられた撮影装置および測位装置がそれぞれ取得した撮影画像および位置情報に基づいて、上空から俯瞰した圃場のマップが生成される。 According to the technology described in Patent Document 1, a vegetation index for agricultural crops is calculated by analyzing aerial images of a field taken from above. According to the technology described in Patent Document 2, a map of the field viewed from above is generated based on captured images and position information acquired by a photographing device and a positioning device, respectively, installed on an unmanned aerial vehicle.

特開2019-185773号公報JP 2019-185773 A 特許第6929190号公報Patent No. 6929190

特許文献1または2に記載の技術によれば、圃場の作物を検知するシステムにおいて、地上から成長した作物の地上部に着目し、地上部から作物の成長が把握される。しかしながら、作物は、地下部から栄養を取得して成長するために、地下部も考慮しながら、作物の成長を把握することが求められる。 According to the technology described in Patent Documents 1 and 2, in a system for detecting crops in a field, the above-ground parts of the crops that grow above ground are focused on, and the growth of the crops is understood from the above-ground parts. However, because crops grow by obtaining nutrients from underground parts, it is necessary to understand the growth of the crops while also taking into account the underground parts.

本発明は上記の問題点に鑑みなされたものであり、圃場に作付けされた、地下部を含めた作物の状態を容易に把握することができる作物検知システムを提供することを目的とする。 The present invention has been developed in consideration of the above problems, and aims to provide a crop detection system that can easily grasp the condition of crops, including underground parts, planted in a field.

本開示の一態様による作物検知システムは、圃場の作物を検知する作物検知システムであって、前記作物の地上部に関する情報である地上情報を検出する第1センサと、前記作物の地下部に関する情報である地下情報を検出する第2センサと、前記地上情報と、前記地下情報とに基づいて、前記作物の地上部と、前記作物の地下部とを合わせた作物を推定する情報処理装置と、を備える。 A crop detection system according to one aspect of the present disclosure is a crop detection system that detects crops in a field, and includes a first sensor that detects aboveground information, which is information about the aboveground parts of the crops, a second sensor that detects underground information, which is information about the underground parts of the crops, and an information processing device that estimates the crop, which is the combination of the aboveground parts of the crops and the underground parts of the crops, based on the aboveground information and the underground information.

本開示の包括的または具体的な態様は、装置、システム、方法、集積回路、コンピュータプログラム、もしくはコンピュータが読み取り可能な非一時的記憶媒体、またはこれらの任意の組み合わせによって実現され得る。コンピュータが読み取り可能な記憶媒体は、揮発性の記憶媒体を含んでいてもよいし、不揮発性の記憶媒体を含んでいてもよい。装置は、複数の装置で構成されていてもよい。装置が二つ以上の装置で構成される場合、当該二つ以上の装置は、一つの機器内に配置されてもよいし、分離した二つ以上の機器内に分かれて配置されていてもよい。 The general or specific aspects of the present disclosure may be realized by an apparatus, a system, a method, an integrated circuit, a computer program, or a computer-readable non-transitory storage medium, or any combination thereof. The computer-readable storage medium may include a volatile storage medium or a non-volatile storage medium. The apparatus may be composed of multiple devices. When the apparatus is composed of two or more devices, the two or more devices may be arranged in one device, or may be arranged separately in two or more separate devices.

本開示の実施形態によれば、圃場の作物の地上部および地下部を検知し、地上部および地下部のそれぞれから得られる情報に基づいて作物の状態を推定することができる。 According to an embodiment of the present disclosure, it is possible to detect the above-ground and underground parts of crops in a field and estimate the condition of the crops based on information obtained from the above-ground and underground parts.

ぶどう樹木の地上部および地下部を模式的に示す図である。FIG. 1 is a schematic diagram showing the above-ground and underground parts of a grapevine. 本開示の例示的な実施形態による農業管理システムの概要を説明するための図である。FIG. 1 is a diagram for explaining an overview of an agricultural management system according to an exemplary embodiment of the present disclosure. 作業車両、および作業車両に連結された作業機の例を模式的に示す側面図である。1 is a side view showing a schematic diagram of an example of a work vehicle and a work implement coupled to the work vehicle; 作業車両の他の構成例を模式的に示す側面図である。FIG. 11 is a side view showing a schematic diagram of another configuration example of the work vehicle. 作業車両および作業機の構成例を示すブロック図である。1 is a block diagram showing an example of the configuration of a work vehicle and a work machine. RTK-GNSSによる測位を行う作業車両の例を示す概念図である。FIG. 1 is a conceptual diagram showing an example of a work vehicle performing positioning using RTK-GNSS. キャビンの内部に設けられる操作端末および操作スイッチ群の例を示す図である。4 is a diagram showing an example of an operation terminal and an operation switch group provided inside the cabin. FIG. 地中レーダ装置が地中を探査する様子を模式的に示す図である。FIG. 1 is a diagram illustrating a state in which a ground penetrating radar device searches underground. 地中レーダ装置の構成例のブロック図である。FIG. 1 is a block diagram of a configuration example of an underground radar device. 地中レーダ装置のアンテナユニットの配置例を模式的に示す図である。FIG. 2 is a diagram illustrating an example of the arrangement of antenna units of an underground radar device. LiDARセンサからレーザパルスが射出される方向および範囲を模式的に示す作業車両の側面図である。A side view of a work vehicle showing typically the direction and range in which a laser pulse is emitted from a LiDAR sensor. LiDARセンサを鉛直上方から見た場合の模式図である。This is a schematic diagram of a LiDAR sensor viewed vertically from above. 圃場に植え付けられた作物群の地下に存在する地下部の分布を模式的に示す図である。FIG. 1 is a schematic diagram showing the distribution of underground parts of crops planted in a field. 作物の地上部の左側方部および右側方部を説明するための図である。FIG. 2 is a diagram illustrating the left and right lateral sides of the above-ground part of a crop. 5本の樹木列が存在するぶどう園を模式的に示す図である。FIG. 1 shows a schematic diagram of a vineyard having five rows of trees. 側方単位で区分けされた複数の点群データから、同一の樹木列を構成する地上部の左側方部および右側方部の点群データを関連付けた結果を示す図である。FIG. 13 is a diagram showing the result of associating point cloud data of the left and right sides of the above-ground part that constitute the same tree row from a plurality of point cloud data divided into lateral units. 作物の地下部の左側方部および右側方部を説明するための図である。FIG. 2 is a diagram illustrating the left and right sides of the underground part of a crop. 5本の樹木列が存在するぶどう園を模式的に示す図である。FIG. 1 shows a schematic diagram of a vineyard having five rows of trees. 側方単位で区分けされた複数の地中センシングデータ群から、同一の樹木列を構成する地下部の左側方部および右側方部のデータ群を関連付けた結果を示す図である。This figure shows the results of associating data groups from the left and right sides of the underground part that make up the same tree row from multiple underground sensing data groups divided into lateral units. 樹木の地下部の一部である幹部の断面を拡大して示す平面図である。FIG. 2 is an enlarged plan view showing a cross section of a trunk, which is part of the underground portion of a tree. 図12に示す地上部に関する識別情報を記載したテーブルと、図15に示す地下部に関する識別情報を記載したテーブルとを統合して得られる、作物全体の識別情報を記載したテーブルを示す図である。This figure shows a table containing identification information for the entire crop, obtained by combining the table containing identification information for the above-ground parts shown in Figure 12 and the table containing identification information for the underground parts shown in Figure 15. 樹木列の一部の形状を模式的に示す図である。FIG. 2 is a diagram showing a schematic shape of a portion of a row of trees. 樹木列に含まれる1つの樹木の外観を模式的に示す図である。FIG. 2 is a diagram showing a schematic appearance of one tree included in a row of trees. 圃場マップの一例を示す図である。FIG. 2 is a diagram showing an example of a farm field map. 位置情報付き圃場マップに基づいて生成される、樹木列の幹分布を模式的に示す図である。FIG. 13 is a diagram showing a schematic diagram of a distribution of tree trunks in a row, generated based on a farm field map with location information. 作物情報を推定するための推定方法の処理フローの概要を示すフローチャートである。11 is a flowchart showing an outline of a process flow of an estimation method for estimating crop information. 制御装置によって実行される自動運転時の操舵制御の動作の例を示すフローチャートである。4 is a flowchart showing an example of a steering control operation during automatic driving executed by the control device. 目標経路に沿って走行する作業車両の例を示す図である。FIG. 2 is a diagram showing an example of a work vehicle traveling along a target route. 目標経路から右にシフトした位置にある作業車両の例を示す図である。FIG. 13 is a diagram showing an example of a work vehicle in a position shifted to the right from the target route. 目標経路から左にシフトした位置にある作業車両の例を示す図である。FIG. 13 is a diagram showing an example of a work vehicle in a position shifted to the left from a target route. 目標経路に対して傾斜した方向を向いている作業車両の例を示す図である。FIG. 13 is a diagram showing an example of a work vehicle facing in an inclined direction with respect to a target route.

(用語の定義)
本開示において「農業機械」は、農業用途で使用される機械を意味する。農業機械の例は、トラクタ、収穫機、田植機、乗用管理機、野菜移植機、草刈機、播種機、施肥機、および農業用移動ロボットを含む。トラクタのような作業車両が単独で「農業機械」として機能する場合だけでなく、作業車両に装着または牽引される作業機(インプルメント)と作業車両の全体が一つの「農業機械」として機能する場合がある。農業機械は、圃場内の地面に対して、耕耘、播種、防除、施肥、作物の植え付け、または収穫などの農作業を行う。これらの農作業を「対地作業」または単に「作業」と称することがある。車両型の農業機械が農作業を行いながら走行することを「作業走行」と称することがある。
(Definition of terms)
In this disclosure, "agricultural machinery" refers to machinery used for agricultural purposes. Examples of agricultural machinery include tractors, harvesters, rice transplanters, riding management machines, vegetable transplanters, mowers, sowing machines, fertilizer applicators, and agricultural mobile robots. Not only a working vehicle such as a tractor functions as an "agricultural machinery" by itself, but also a working implement attached to or towed by the working vehicle and the working vehicle as a whole may function as one "agricultural machinery". Agricultural machinery performs agricultural work such as plowing, sowing, pest control, fertilization, planting crops, or harvesting on the ground in a field. These agricultural works are sometimes referred to as "ground work" or simply "work". Traveling of a vehicle-type agricultural machine while performing agricultural work is sometimes referred to as "work travel".

「自動運転」は、運転者による手動操作によらず、制御装置の働きによって農業機械の移動を制御することを意味する。自動運転を行う農業機械は「自動運転農機」または「ロボット農機」と呼ばれることがある。自動運転中、農業機械の移動だけでなく、農作業の動作(例えば作業機の動作)も自動で制御されてもよい。農業機械が車両型の機械である場合、自動運転によって農業機械が走行することを「自動走行」と称する。制御装置は、農業機械の移動に必要な操舵、移動速度の調整、移動の開始および停止の少なくとも一つを制御し得る。作業機が装着された作業車両を制御する場合、制御装置は、作業機の昇降、作業機の動作の開始および停止などの動作を制御してもよい。自動運転による移動には、農業機械が所定の経路に沿って目的地に向かう移動のみならず、追尾目標に追従する移動も含まれ得る。自動運転を行う農業機械は、部分的にユーザの指示に基づいて移動してもよい。また、自動運転を行う農業機械は、自動運転モードに加えて、運転者の手動操作によって移動する手動運転モードで動作してもよい。手動によらず、制御装置の働きによって農業機械の操舵を行うことを「自動操舵」と称する。制御装置の一部または全部が農業機械の外部にあってもよい。農業機械の外部にある制御装置と農業機械との間では、制御信号、コマンド、またはデータなどの通信が行われ得る。自動運転を行う農業機械は、人がその農業機械の移動の制御に関与することなく、周囲の環境をセンシングしながら自律的に移動してもよい。自律的な移動が可能な農業機械は、無人で圃場内または圃場外(例えば道路)を走行することができる。自律移動中に、障害物の検出および障害物の回避動作を行ってもよい。 "Autonomous driving" means that the movement of the agricultural machine is controlled by the action of a control device, not by manual operation by the driver. An agricultural machine that performs automatic driving is sometimes called an "automatic driving agricultural machine" or a "robot agricultural machine". During automatic driving, not only the movement of the agricultural machine but also the operation of agricultural work (for example, the operation of the working machine) may be automatically controlled. When the agricultural machine is a vehicle-type machine, the traveling of the agricultural machine by automatic driving is called "automatic driving". The control device may control at least one of steering, adjustment of the moving speed, and starting and stopping of the movement required for the movement of the agricultural machine. When controlling a work vehicle equipped with a working machine, the control device may control operations such as raising and lowering the working machine, starting and stopping the operation of the working machine. The movement by automatic driving may include not only the movement of the agricultural machine toward the destination along a predetermined route, but also the movement of the agricultural machine following a tracking target. An agricultural machine that performs automatic driving may move partially based on the instructions of a user. In addition, an agricultural machine that performs automatic driving may operate in a manual driving mode in which the agricultural machine moves by manual operation of the driver in addition to the automatic driving mode. Steering an agricultural machine by the action of a control device, rather than manually, is called "automatic steering." A part or all of the control device may be external to the agricultural machine. Communication of control signals, commands, data, etc. may take place between the agricultural machine and a control device external to the agricultural machine. An agricultural machine that performs automatic driving may move autonomously while sensing the surrounding environment, without a human being being involved in controlling the movement of the agricultural machine. An agricultural machine capable of autonomous movement can travel unmanned in a field or outside the field (e.g., on a road). During autonomous movement, the machine may detect obstacles and perform obstacle avoidance operations.

「作業計画」は、農業機械によって実行される一つ以上の農作業の予定を定めるデータである。作業計画は、例えば、農業機械によって実行される農作業の順序および各農作業が行われる圃場を示す情報を含み得る。作業計画は、各農作業が行われる予定の日および時刻の情報を含んでいてもよい。作業計画は、農業機械と通信して農作業を管理する処理装置、または農業機械に搭載された処理装置によって作成され得る。処理装置は、例えば、ユーザ(農業経営者または農作業者など)が端末装置を操作して入力した情報に基づいて作業計画を作成することができる。本明細書において、農業機械と通信して農作業を管理する処理装置を「管理装置」と称する。管理装置は、複数の農業機械の農作業を管理してもよい。その場合、管理装置は、複数の農業機械の各々が実行する各農作業に関する情報を含む作業計画を作成してもよい。作業計画は、各農業機械によってダウンロードされ、記憶装置に格納され得る。各農業機械は、作業計画に従って、予定された農作業を実行するために、自動で圃場に向かい、農作業を実行することができる。 A "work plan" is data that schedules one or more agricultural works to be performed by an agricultural machine. The work plan may include, for example, information indicating the order of agricultural works to be performed by the agricultural machine and the field on which each agricultural work is to be performed. The work plan may include information on the date and time on which each agricultural work is scheduled to be performed. The work plan may be created by a processing device that communicates with the agricultural machine to manage the agricultural work, or a processing device mounted on the agricultural machine. The processing device may create a work plan based on information input by a user (such as an agricultural manager or farm worker) operating a terminal device. In this specification, a processing device that communicates with the agricultural machine to manage the agricultural work is referred to as a "management device." The management device may manage the agricultural work of multiple agricultural machines. In that case, the management device may create a work plan that includes information on each agricultural work performed by each of the multiple agricultural machines. The work plan may be downloaded by each agricultural machine and stored in a storage device. Each agricultural machine can automatically head to the field to perform the scheduled agricultural work according to the work plan and perform the agricultural work.

「環境地図」は、農業機械が移動する環境に存在する物の位置または領域を所定の座標系によって表現したデータである。環境地図を規定する座標系は、例えば、地球に対して固定された地理座標系などのワールド座標系であり得る。環境地図は、環境に存在する物について、位置以外の情報(例えば、属性情報その他の情報)を含んでいてもよい。環境地図は、点群地図または格子地図など、さまざまな形式の地図を含む。 An "environmental map" is data that expresses the positions or areas of objects that exist in the environment in which the agricultural machine moves using a specified coordinate system. The coordinate system that defines the environmental map may be, for example, a world coordinate system such as a geographic coordinate system fixed relative to the Earth. The environmental map may also include information other than the positions of objects that exist in the environment (for example, attribute information and other information). Environmental maps include various types of maps, such as point cloud maps or grid maps.

「地下地図」は、農業機械が走行する圃場の地下に存在する物の位置または分布を所定の座標系によって表現したデータである。地下に存在する物の例は、作物の地下部である。地下部は、地下茎および根を含み、根系とも呼ばれる。地下地図を規定する座標系も、環境地図と同様に、地球に対して固定されたワールド座標系であり得る。地下地図は、地下に存在する物について、位置以外の情報(例えば、属性情報その他の情報)を含んでいてもよい。地下地図は、点群地図または格子地図など、さまざまな形式の地図を含む。 An "underground map" is data that uses a specified coordinate system to represent the positions or distribution of objects that exist underground in a field on which agricultural machinery travels. An example of an object that exists underground is the underground part of a crop. The underground part includes rhizomes and roots, and is also called the root system. The coordinate system that defines the underground map may also be a world coordinate system fixed relative to the Earth, similar to the environmental map. The underground map may include information other than the positions of objects that exist underground (e.g., attribute information and other information). The underground map includes various types of maps, such as point cloud maps or grid maps.

「圃場マップ」は、「環境地図」のデータ、「地下地図」のデータ、または「環境地図」のデータと「地下地図」のデータとを統合した統合データのいずれか1つのデータである。圃場マップを規定する座標系も、環境地図または地下地図と同様に、地球に対して固定されたワールド座標系であり得る。 The "field map" is any one of the following data: "environmental map" data, "underground map" data, or integrated data that combines "environmental map" data and "underground map" data. The coordinate system that defines the field map may also be a world coordinate system fixed relative to the Earth, similar to the environmental map or underground map.

「ポーズ」は、物(オブジェクト)の「位置および向き」である。2次元空間におけるポーズは、例えば(x,y,θ)の3個の座標値によって規定される。ここで、(x,y)は、地球に固定されたワールド座標系であるXY座標系における座標値であり、θは基準方向に対する角度である。θは、3次元空間におけるロール角、ピッチ角、およびヨー角のうちのヨー角に相当する。ヨー角は、農業機械の上下方向の軸の周りの回転量を表す。 A "pose" is the "position and orientation" of an object. A pose in two-dimensional space is defined by three coordinate values, for example (x, y, θ). Here, (x, y) are coordinate values in the XY coordinate system, which is a world coordinate system fixed to the Earth, and θ is the angle with respect to the reference direction. θ corresponds to the yaw angle of the roll angle, pitch angle, and yaw angle in three-dimensional space. The yaw angle represents the amount of rotation around the vertical axis of the agricultural machinery.

(実施形態)
以下、本開示の実施形態を説明する。ただし、必要以上に詳細な説明は省略することがある。例えば、既によく知られた事項の詳細な説明および実質的に同一の構成に関する重複する説明を省略することがある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、発明者は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。以下の説明において、同一または類似の機能を有する構成要素については、同一の参照符号を付している。
(Embodiment)
Hereinafter, an embodiment of the present disclosure will be described. However, more detailed explanation than necessary may be omitted. For example, detailed explanation of already well-known matters and overlapping explanation of substantially the same configuration may be omitted. This is to avoid the following explanation becoming unnecessarily redundant and to facilitate understanding by those skilled in the art. Note that the inventor provides the attached drawings and the following explanation so that those skilled in the art can fully understand the present disclosure, and does not intend to limit the subject matter described in the claims by them. In the following description, components having the same or similar functions are given the same reference numerals.

以下の実施形態は例示であり、本開示の技術は以下の実施形態に限定されない。例えば、以下の実施形態で示される数値、形状、材料、ステップ、ステップの順序、表示画面のレイアウトなどは、あくまでも一例であり、技術的に矛盾が生じない限りにおいて種々の改変が可能である。また、技術的に矛盾が生じない限りにおいて、一の態様と他の態様とを組み合わせることが可能である。 The following embodiments are illustrative, and the technology of the present disclosure is not limited to the following embodiments. For example, the numerical values, shapes, materials, steps, order of steps, layout of the display screen, and the like shown in the following embodiments are merely examples, and various modifications are possible as long as no technical contradictions arise. In addition, one aspect can be combined with another aspect as long as no technical contradictions arise.

本開示の実施形態における作物検知システムは、農業機械、建設機械などの作業車両に搭載され得る。本開示の実施形態では、作物検知システムは農業機械に搭載される。作物検知システムは、圃場に作付けされた作物の地上部だけでなく、地下部に関する情報も取得するためのシステムである。作物検知システムは、農業機械に搭載される1以上のセンサを備える。当該作物検知システムは、1以上のセンサを用いて、作物が作付けされた圃場の地上および地下(または地中)をセンシングし、地上および地下のそれぞれをセンシングして得られたセンシングデータを統合し得る。作物検知システムは、統合されたセンシングデータに基づいて、地上部および地下部を含む作物全体の生育状態を推定または把握することを可能とする。作物の状態は、例えば作物の生育状態または作物の生育に関する情報を意味する。作物の状態は、例えば、地上部および/または地下部の、形状、サイズ(根の太さ、幹部の太さ)、根の密度、または圃場における位置情報によって表される。 The crop detection system in the embodiment of the present disclosure may be mounted on a work vehicle such as an agricultural machine or a construction machine. In the embodiment of the present disclosure, the crop detection system is mounted on an agricultural machine. The crop detection system is a system for acquiring information on not only the above-ground parts of a crop planted in a field, but also the underground parts. The crop detection system includes one or more sensors mounted on the agricultural machine. The crop detection system may use one or more sensors to sense the above-ground and underground (or underground) parts of a field in which a crop is planted, and integrate the sensing data obtained by sensing the above-ground and underground parts. The crop detection system makes it possible to estimate or understand the growth state of the entire crop, including the above-ground and underground parts, based on the integrated sensing data. The state of the crop means, for example, the growth state of the crop or information on the growth of the crop. The state of the crop is represented, for example, by the shape, size (thickness of the root, thickness of the stem), root density, or position information in the field of the above-ground and/or underground parts.

[1.作物の地上部および地下部]
作物は、地上に存在する部分、および、地下に存在する部分から構成される。前者は地上部と呼ばれ、後者は、地下部または根系と呼ばれる。地下部は、根および地下茎などを含む。作物の根は、生育に応じて地中に不規則に伸びる。また、剪定技術、灌漑、年度などの根の成長に影響を与えるさまざまな要因により、根の成長の仕方は年ごとに異なり得る。本開示の実施形態では、作物としてぶどうを例に挙げ、地下部の概略的な構造を説明する。
[1. Above-ground and below-ground parts of crops]
A crop is composed of a part existing above ground and a part existing underground. The former is called the aboveground part, and the latter is called the underground part or root system. The underground part includes roots and rhizomes. The roots of a crop grow irregularly underground as the crop grows. In addition, the way the roots grow may vary from year to year due to various factors that affect the growth of the roots, such as pruning techniques, irrigation, and the year. In the embodiment of the present disclosure, grapes are used as an example of a crop to explain the schematic structure of the underground part.

図1は、ぶどう樹木の地上部および地下部を模式的に示す図である。ぶどう樹木は、地面上方において観察される樹冠部、幹を含む地上部、および根系を含む地下部から構成される。ぶどうの地下部の大部分は地面から100cmの深さの範囲内に位置し、個々の根は9mの深さにまで成長し得る。細根のほとんどは、10cm~60cmの深さにあり、地面から20cm程の深さにおいて、根の密度が最大になる。主根は、通常、地面から18cm~80cmの深さに確認される。根の分布は、土壌特性、不透水層、および台木(root stock)の品種などに依存し得る。ぶどうの根は非常に分岐することが知られており、様々な深さや方向に成長し得る。いくつかの研究によれば、ぶどうの根は、主に開花からヴェレゾン(すなわち、ぶどうが成熟するにつれ、色づいていくこと)の間に成長し、典型的には、収穫時期の近くには成長せず、収穫後または春先にもほとんど成長しない。また、休眠期であっても、土壌の温度が十分高ければ、根は成長し得る。また、地上部は地下部の影響を受けるために、樹冠部、幹の成長の仕方は年ごとに異なり得る。 1 is a schematic diagram of the above-ground and underground parts of a grapevine. A grapevine consists of the crown, which is observed above the ground, the above-ground part including the trunk, and the underground part including the root system. Most of the underground part of the grapevine is located within a depth of 100 cm from the ground, and individual roots can grow to a depth of 9 m. Most of the fine roots are located at a depth of 10 cm to 60 cm, with the highest root density occurring at a depth of about 20 cm from the ground. The taproot is usually found at a depth of 18 cm to 80 cm from the ground. The distribution of the roots may depend on the soil characteristics, the impermeable layer, and the variety of the root stock. Grapevine roots are known to be highly branched and can grow to various depths and directions. According to several studies, grapevine roots grow mainly between flowering and véraison (i.e., as the grapes mature and color), and typically do not grow near harvest time, and very little after harvest or in early spring. Even during the dormant period, roots can grow if the soil temperature is high enough. Also, because the above-ground parts are influenced by the underground parts, the growth of the crown and trunk can vary from year to year.

このように、作物が植え付けられた圃場の地上部および地下部のそれぞれの分布は、作物の個体ごとに特有であり、地下部の固有パターンを形成する。とりわけ、圃場に植え付けられた複数の作物のそれぞれは、地下部の固有パターンを形成する。このため、複数の作物の地下部が組み合わさることによって、圃場全体として、圃場の地下部全体の固有パターンが形成される。圃場の地下部全体の分布は、前述したさまざまな要因によって根の成長とともに変化し得る。この点において、動的な地下部は、地中に存在し得る例えば配管または岩石などの静的構造物とは異なる。 In this way, the distribution of the above-ground and below-ground parts of a field in which crops are planted is specific to each individual crop, forming a unique pattern of the below-ground parts. In particular, each of the multiple crops planted in the field forms a unique pattern of the below-ground parts. Therefore, by combining the below-ground parts of multiple crops, a unique pattern of the entire below-ground part of the field is formed as a whole. The distribution of the entire below-ground part of the field can change with the growth of roots due to the various factors mentioned above. In this respect, the dynamic below-ground part differs from static structures that may exist underground, such as pipes or rocks.

[2.システムの構成例]
以下、トラクタのような作業車両に本開示の技術を適用した実施形態を主に説明する。ただし、本開示の技術は、トラクタのような作業車両に限らず、他の種類の農業機械にも適用することができる。
2. System configuration example
Hereinafter, an embodiment in which the technology of the present disclosure is applied to a work vehicle such as a tractor will be mainly described. However, the technology of the present disclosure is not limited to work vehicles such as tractors, and can also be applied to other types of agricultural machinery.

図2は、本開示の例示的な実施形態による農業管理システムの概要を説明するための図である。図2に示す農業管理システムは、作業車両100と、端末装置400と、管理装置600とを備える。農業管理システムは、さらに、エッジコンピュータを備えていてもよい。端末装置400は、作業車両100を遠隔で監視するユーザが使用するコンピュータである。管理装置600は、農業管理システムを運営する事業者が管理するコンピュータである。作業車両100、端末装置400、および管理装置600は、ネットワーク80を介して互いに通信することができる。図2には1台の作業車両100が例示されているが、農業管理システムは、複数の作業車両またはその他の農業機械を含んでいてもよい。 FIG. 2 is a diagram for explaining an overview of an agricultural management system according to an exemplary embodiment of the present disclosure. The agricultural management system shown in FIG. 2 includes a work vehicle 100, a terminal device 400, and a management device 600. The agricultural management system may further include an edge computer. The terminal device 400 is a computer used by a user who remotely monitors the work vehicle 100. The management device 600 is a computer managed by a business operator who operates the agricultural management system. The work vehicle 100, the terminal device 400, and the management device 600 can communicate with each other via a network 80. Although one work vehicle 100 is illustrated in FIG. 2, the agricultural management system may include multiple work vehicles or other agricultural machines.

本開示の実施形態において、作物の地上部に関する情報である地上情報を取得する第1センサと、作物の地下部に関する情報である地下情報を取得する第2センサと、地上情報と地下情報とに基づいて、作物の地上部と、作物の地下部とを合わせた作物の状態を推定する情報処理装置とが、協働して、作物検知システムとして機能する。当該情報処理装置は、例えば、作業車両100が備える処理装置、管理装置600におけるプロセッサ、またはエッジコンピュータである。当該第1センサの例は、カメラまたはLiDARセンサである。当該第2センサの例は地中レーダ装置である。 In an embodiment of the present disclosure, a first sensor that acquires above-ground information, which is information about the above-ground parts of the crop, a second sensor that acquires underground information, which is information about the underground parts of the crop, and an information processing device that estimates the state of the crop, including the above-ground parts of the crop and the underground parts of the crop, based on the above-ground information and the underground information, work together to function as a crop detection system. The information processing device is, for example, a processing device provided in the work vehicle 100, a processor in the management device 600, or an edge computer. An example of the first sensor is a camera or a LiDAR sensor. An example of the second sensor is an underground radar device.

作物検知システムが備える複数の装置は、1または複数の作業車両に分散して搭載され得る。例えば、第1センサおよび第2センサは、単一の農業機械に搭載され得、あるいは複数の農業機械に別個搭載され得る。作物検知システムは、それらの機能を有しない作業車両に後から取り付けることもできる。そのようなシステムは、作業車両とは独立して製造および販売され得る。そのようなシステムで使用されるコンピュータプログラムも、作業車両とは独立して製造および販売され得る。コンピュータプログラムは、例えばコンピュータが読み取り可能な非一時的な記憶媒体に格納されて提供され得る。コンピュータプログラムは、電気通信回線(例えばインターネット)を介したダウンロードによっても提供され得る。 The multiple devices included in the crop detection system may be distributed and mounted on one or multiple work vehicles. For example, the first sensor and the second sensor may be mounted on a single agricultural machine, or may be mounted separately on multiple agricultural machines. The crop detection system may also be retrofitted to a work vehicle that does not have these functions. Such a system may be manufactured and sold independently of the work vehicle. The computer program used in such a system may also be manufactured and sold independently of the work vehicle. The computer program may be provided, for example, stored in a computer-readable non-transitory storage medium. The computer program may also be provided by downloading via a telecommunications line (e.g., the Internet).

本開示の実施形態における作業車両100はトラクタである。作業車両100は、後部および前部の一方または両方に作業機を装着することができる。作業車両100は、作業機の種類に応じた農作業を行いながら圃場内を走行することができる。作業車両100は、作業機を装着しない状態で圃場内または圃場外を走行してもよい。 The work vehicle 100 in the embodiment of the present disclosure is a tractor. The work vehicle 100 can be equipped with a work implement at either the rear or the front, or both. The work vehicle 100 can travel within a field while performing agricultural work according to the type of work implement. The work vehicle 100 may also travel within or outside a field without a work implement attached.

本開示の実施形態における作業車両100は、自動運転機能を備える。すなわち、作業車両10は、手動によらず、制御装置の働きによって走行することができる。ただし、自動運転機能は必須でない。本開示の実施形態における制御装置は、作業車両100の内部に設けられ、作業車両100の速度および操舵の両方を制御することができる。作業車両100は、圃場内に限らず、圃場外(例えば道路)を自動走行することもできる。 The work vehicle 100 in the embodiment of the present disclosure has an automatic driving function. That is, the work vehicle 10 can travel by the action of a control device, not manually. However, the automatic driving function is not essential. The control device in the embodiment of the present disclosure is provided inside the work vehicle 100, and can control both the speed and steering of the work vehicle 100. The work vehicle 100 can travel automatically not only in a field, but also outside the field (e.g., on a road).

作業車両100は、測位のために利用されるGNSS受信機などの装置を備える。作業車両100の制御装置は、作業車両100の位置と、目標経路または走行経路の情報とに基づいて、作業車両100を自動で走行させる。本明細書において、目標経路を「走行予定経路」と呼ぶ場合がある。制御装置は、作業車両100の走行制御に加えて、作業機の動作の制御も行う。これにより、作業車両100は、圃場内を自動で走行しながら作業機を用いて農作業を実行することができる。さらに、作業車両100は、圃場外の道(例えば、農道または一般道)を目標経路に沿って自動で走行することができる。作業車両100は、カメラまたはLiDARセンサなどのセンシング装置から出力されるデータを活用しながら、圃場外の道に沿って自動走行を行う。センシング装置は測距センサとして機能する。測距センサは、第1または第2センサとして機能し得る。 The work vehicle 100 is equipped with a device such as a GNSS receiver used for positioning. The control device of the work vehicle 100 automatically drives the work vehicle 100 based on the position of the work vehicle 100 and information on the target route or driving route. In this specification, the target route may be referred to as the "planned driving route". In addition to controlling the driving of the work vehicle 100, the control device also controls the operation of the work machine. This allows the work vehicle 100 to perform agricultural work using the work machine while automatically driving in the field. Furthermore, the work vehicle 100 can automatically drive along a road outside the field (e.g., a farm road or a general road) along the target route. The work vehicle 100 automatically drives along a road outside the field while utilizing data output from a sensing device such as a camera or a LiDAR sensor. The sensing device functions as a distance measurement sensor. The distance measurement sensor can function as a first or second sensor.

管理装置600は、作業車両100による農作業を管理するコンピュータである。管理装置600は、例えば圃場に関する情報をクラウド上で一元管理し、クラウド上のデータを活用して農業を支援するサーバコンピュータであり得る。管理装置600は、例えば、作業車両100の作業計画を作成し、その作業計画に従って、作業車両100に農作業を実行させる。管理装置600は、例えば、ユーザが端末装置400または他のデバイスを用いて入力した情報に基づいて圃場内の目標経路を生成する。管理装置600は、さらに、作業車両100または他の移動体がLiDARセンサなどのセンシング装置を用いて収集したデータに基づいて、環境地図の生成および編集を行ってもよい。管理装置600は、生成した作業計画、目標経路、および、環境地図または圃場マップのデータを作業車両100に送信する。作業車両100は、それらのデータに基づいて、移動および農作業を自動で行う。 The management device 600 is a computer that manages agricultural work by the work vehicle 100. The management device 600 may be, for example, a server computer that centrally manages information about a field on the cloud and supports agriculture by utilizing data on the cloud. The management device 600, for example, creates a work plan for the work vehicle 100 and causes the work vehicle 100 to perform agricultural work according to the work plan. The management device 600 generates a target route in the field based on information input by a user using the terminal device 400 or other devices. The management device 600 may further generate and edit an environmental map based on data collected by the work vehicle 100 or other moving bodies using a sensing device such as a LiDAR sensor. The management device 600 transmits the generated work plan, target route, and data of the environmental map or field map to the work vehicle 100. The work vehicle 100 automatically moves and performs agricultural work based on the data.

端末装置400は、作業車両100から離れた場所にいるユーザが使用するコンピュータである。図2に示す端末装置400はラップトップコンピュータであるが、これに限定されない。端末装置400は、デスクトップPC(personal computer)などの据え置き型のコンピュータであってもよいし、スマートフォンまたはタブレットコンピュータなどのモバイル端末でもよい。端末装置400は、作業車両100を遠隔監視したり、作業車両100を遠隔操作したりするために用いられ得る。例えば、端末装置400は、作業車両100が備える1台以上のカメラ(撮像装置)が撮影した映像をディスプレイに表示させることができる。端末装置400は、さらに、作業車両100の作業計画(例えば各農作業のスケジュール)を作成するために必要な情報をユーザが入力するための設定画面をディスプレイに表示することもできる。ユーザが設定画面上で必要な情報を入力し送信の操作を行うと、端末装置400は、入力された情報を管理装置600に送信する。管理装置600は、その情報に基づいて作業計画を作成する。端末装置400は、さらに、目標経路を設定するために必要な情報をユーザが入力するための設定画面をディスプレイに表示する機能を備えていてもよい。 The terminal device 400 is a computer used by a user located away from the work vehicle 100. The terminal device 400 shown in FIG. 2 is a laptop computer, but is not limited to this. The terminal device 400 may be a stationary computer such as a desktop PC (personal computer), or a mobile terminal such as a smartphone or tablet computer. The terminal device 400 can be used to remotely monitor the work vehicle 100 or remotely operate the work vehicle 100. For example, the terminal device 400 can display on a display an image captured by one or more cameras (imaging devices) equipped on the work vehicle 100. The terminal device 400 can also display on a display a setting screen for a user to input information required to create a work plan for the work vehicle 100 (for example, a schedule for each agricultural work). When a user inputs the required information on the setting screen and performs a transmission operation, the terminal device 400 transmits the input information to the management device 600. The management device 600 creates a work plan based on the information. The terminal device 400 may further have a function for displaying a setting screen on the display for the user to input information necessary to set a target route.

以下、本開示の実施形態におけるシステムの構成例をより詳細に説明する。 Below, an example of the system configuration according to an embodiment of the present disclosure is described in more detail.

図3Aは、作業車両100、および作業車両100に連結された作業機300の例を模式的に示す側面図である。本開示の実施形態における作業車両100は、手動運転モードと自動運転モードの両方で動作することができる。自動運転モードにおいて、作業車両100は無人で走行することができる。作業車両100は、圃場内と圃場外の両方で自動運転が可能である。 Figure 3A is a side view that shows a schematic example of a work vehicle 100 and a work implement 300 coupled to the work vehicle 100. The work vehicle 100 in the embodiment of the present disclosure can operate in both a manual driving mode and an automatic driving mode. In the automatic driving mode, the work vehicle 100 can travel unmanned. The work vehicle 100 can be automatically driven both in and outside of a field.

[3.作業車両の構成例]
図3Aに示すように、作業車両100は、車両本体101と、原動機(エンジン)102と、変速装置(トランスミッション)103とを備える。車両本体101には、タイヤ付きの車輪104と、キャビン105とが設けられている。車輪104は、一対の前輪104Fと一対の後輪104Rとを含む。キャビン105の内部に運転席107、操舵装置106、操作端末200、および操作のためのスイッチ群が設けられている。作業車両100が圃場内で作業走行を行うとき、前輪104Fおよび後輪104Rの一方または両方にはタイヤではなくクローラが取り付けられていてもよい。
[3. Example of work vehicle configuration]
As shown in Fig. 3A, the work vehicle 100 includes a vehicle body 101, a prime mover (engine) 102, and a transmission 103. The vehicle body 101 is provided with wheels 104 with tires, and a cabin 105. The wheels 104 include a pair of front wheels 104F and a pair of rear wheels 104R. A driver's seat 107, a steering device 106, an operation terminal 200, and a group of switches for operation are provided inside the cabin 105. When the work vehicle 100 travels for work in a field, crawlers instead of tires may be attached to one or both of the front wheels 104F and the rear wheels 104R.

作業車両100は、作業車両100の周囲の環境および地中をセンシングする少なくとも1つのセンシング装置と、少なくとも1つのセンシング装置から出力されるセンシングデータを処理する情報処理装置とを備え得る。図3Aに示す例では、作業車両100は複数のセンシング装置を備える。センシング装置は、複数のカメラ120と、複数の障害物センサ130と、地中レーダ装置140と、LiDARセンサ220とを含む。 The work vehicle 100 may be equipped with at least one sensing device that senses the environment surrounding the work vehicle 100 and the underground, and an information processing device that processes sensing data output from the at least one sensing device. In the example shown in FIG. 3A, the work vehicle 100 is equipped with multiple sensing devices. The sensing devices include multiple cameras 120, multiple obstacle sensors 130, an underground radar device 140, and a LiDAR sensor 220.

LiDARセンサ220は、測距センサの一例であり、作業車両100の周辺に設定された測定範囲に存在する作物の地上部までの距離を地上情報として検出する。地中レーダ装置140も、測距センサの一例であり、測定範囲に存在する作物の地下部までの距離を地下情報として検出する。 The LiDAR sensor 220 is an example of a distance measurement sensor, and detects the distance to the above-ground parts of crops that exist within a measurement range set around the work vehicle 100 as ground information. The underground radar device 140 is also an example of a distance measurement sensor, and detects the distance to the underground parts of crops that exist within the measurement range as underground information.

カメラ120は、例えば作業車両100の前後左右に設けられ得る。カメラ120は、作業車両100の周囲の環境を撮影し、画像データを生成する。カメラ120が取得した画像は、作業車両100に搭載された情報処理装置に出力され、遠隔監視を行うための端末装置400に送信され得る。当該画像は、無人運転時に作業車両100を監視するために用いられ得る。カメラ120は、作業車両100が圃場外の道(農道または一般道)を走行するときに、周辺の地物もしくは障害物、白線、標識、または表示などを認識するための画像を生成する用途でも使用され得る。また、本開示の実施形態では、カメラ120はRGBカメラである。作業車両100が圃場を走行している間、カメラ120は、作業車両100の周辺に設定された測定範囲に存在する作物の地上部の画像を地上情報として検出する。 The camera 120 may be installed, for example, on the front, rear, left and right sides of the work vehicle 100. The camera 120 captures the environment around the work vehicle 100 and generates image data. The image acquired by the camera 120 may be output to an information processing device mounted on the work vehicle 100 and transmitted to a terminal device 400 for remote monitoring. The image may be used to monitor the work vehicle 100 during unmanned driving. The camera 120 may also be used to generate images for recognizing surrounding features or obstacles, white lines, signs, or indications when the work vehicle 100 travels on roads outside the field (farm roads or general roads). In the embodiment of the present disclosure, the camera 120 is an RGB camera. While the work vehicle 100 is traveling in the field, the camera 120 detects images of the aboveground parts of crops present within a measurement range set around the work vehicle 100 as ground information.

図3Aの例における地中レーダ装置140は、車両本体101の前部の下側に配置されている。地中レーダ装置140は、車両本体101の中央下部または車両本体101の後部の下側などの他の位置に設けられていてもよい。また、使用する地中レーダ装置の個数は1個に限定されず、2個以上であり得る。図3Bは、作業車両100の他の構成例を模式的に示す側面図である。作業車両100は、例えば2個の地中レーダ装置140を備え得る。この場合、一方は、車両本体101の前部の下側に配置され、他方は、車両本体101の後部の下側に配置され得る。あるいは、車両本体の後部に地中レーダ装置を取り付けることが作業機と干渉して困難である場合などは、地面に対して対地作業を行う作業機に地中レーダ装置を取り付けてもよいし、車両本体101の底面に地中レーダ装置を取り付けてもよい。 In the example of FIG. 3A, the underground radar device 140 is disposed under the front of the vehicle body 101. The underground radar device 140 may be disposed in other positions, such as the lower center of the vehicle body 101 or the underside of the rear of the vehicle body 101. The number of underground radar devices used is not limited to one, and may be two or more. FIG. 3B is a side view showing another configuration example of the work vehicle 100. The work vehicle 100 may be equipped with, for example, two underground radar devices 140. In this case, one may be disposed under the front of the vehicle body 101, and the other may be disposed under the rear of the vehicle body 101. Alternatively, in cases where it is difficult to attach the underground radar device to the rear of the vehicle body due to interference with the work machine, the underground radar device may be attached to the work machine that performs ground work on the ground, or the underground radar device may be attached to the bottom surface of the vehicle body 101.

地中レーダ装置140は、地面に電磁波を放射し、地中からの反射波を受信するように構成される。地中レーダ装置140は、電磁波を送信することによって、作業車両100の周辺に設定された測定範囲に存在する作物の地下部までの距離を検出する。地中レーダ装置140は、比誘電率の変化によって地中の物理的境界面で電磁波が反射する現象を利用して地中の物体の存在を探査・検出する探査装置である。地中レーダ装置140は、地中に存在する構造物の空間分布に関する情報を含むセンシングデータを繰り返し取得する。空間分布は2次元または3次元空間における分布であり得る。以降、空間分布は単に「分布」と呼ぶ。本開示の実施形態における地中レーダ装置140は、作業車両100が圃場を走行している間、圃場内の地中における作物の地下部の分布に関する情報を含むセンシングデータを繰り返し取得する。本明細書では、作物の地下部に関する情報、より具体的には、圃場内の地中における作物の地下部の分布に関する情報を「地下情報」と呼ぶ。地下情報は、地中センシングデータによって示され、例えば、地下部の形状、サイズ、および圃場における位置情報を含む。一方、作物の地上部に関する情報、より具体的には、圃場内の地上における作物の地上部の分布に関する情報を「地上情報」と呼ぶ。地上情報は、点群データによって示され、例えば、地上部の形状、サイズ、および圃場における位置情報を含む。 The underground radar device 140 is configured to radiate electromagnetic waves to the ground and receive reflected waves from the ground. The underground radar device 140 detects the distance to the underground part of the crop present in the measurement range set around the work vehicle 100 by transmitting electromagnetic waves. The underground radar device 140 is an exploration device that explores and detects the presence of an object underground by utilizing the phenomenon in which electromagnetic waves are reflected at a physical boundary surface in the ground due to a change in the relative dielectric constant. The underground radar device 140 repeatedly acquires sensing data including information on the spatial distribution of structures present underground. The spatial distribution may be a distribution in a two-dimensional or three-dimensional space. Hereinafter, the spatial distribution will be simply referred to as "distribution". The underground radar device 140 in the embodiment of the present disclosure repeatedly acquires sensing data including information on the distribution of the underground part of the crop in the ground in the field while the work vehicle 100 is traveling in the field. In this specification, information on the underground part of the crop, more specifically, information on the distribution of the underground part of the crop in the ground in the field will be referred to as "underground information". The underground information is represented by underground sensing data, and includes, for example, information on the shape, size, and location of the underground parts in the field. On the other hand, information on the above-ground parts of the crop, more specifically, information on the distribution of the above-ground parts of the crop above ground in the field, is called "above-ground information." The above-ground information is represented by point cloud data, and includes, for example, information on the shape, size, and location of the above-ground parts in the field.

図7Aは、地中レーダ装置140が地中を探査する様子を模式的に示す図である。図7Bは、地中レーダ装置140の構成例のブロック図である。図7Cは、地中レーダ装置140のアンテナユニット141の配置例を模式的に示す図である。 Figure 7A is a diagram that shows a schematic diagram of an underground radar device 140 exploring underground. Figure 7B is a block diagram of an example of the configuration of the underground radar device 140. Figure 7C is a diagram that shows a schematic diagram of an example of the arrangement of the antenna unit 141 of the underground radar device 140.

本開示の実施形態における地中レーダ装置140は、それぞれが送信アンテナTおよび受信アンテナRを含む複数のアンテナユニット(マルチチャネル)141と、複数の受信アンテナRのそれぞれに接続される受信機142と、複数の送信アンテナTのそれぞれに接続されるパルス発生器143と、受信機142およびパルス発生器143の動作を制御する制御装置144と、記憶装置145とを備える。図7Bおよび図7Cに例示する地中レーダ装置140は、複数のアンテナユニット141を備える3次元地中レーダ装置である。車両本体101の幅方向(図7Cに示すY方向)に沿った地中レーダ装置140の長さは、例えば100cm~200cmである。複数の送信アンテナTは、車両本体101の幅方向に沿って等間隔(例えば数十mm)で配置され、複数の受信アンテナRも、車両本体101の幅方向に沿って等間隔(例えば数十mm)で配置され得る。3次元地中レーダ装置によれば、受信アンテナRの間隔で、図7Aに示すXZ平面に平行な複数の地中断面の地中探査データを同時に取得することが可能となる。地中探査データに基づいて、地中の地下部の分布を高精細な3次元情報として取得でき、可視化することが可能である。この3次元情報は、画像化することが可能であり、これにより、3次元画像データを取得することができる。また、地中の地下部の分布を示す3次元情報に基づいて地下部の2次元もしくは3次元形状、またはサイズを推定することができる。 The underground radar device 140 in the embodiment of the present disclosure includes a plurality of antenna units (multi-channel) 141 each including a transmitting antenna T and a receiving antenna R, a receiver 142 connected to each of the plurality of receiving antennas R, a pulse generator 143 connected to each of the plurality of transmitting antennas T, a control device 144 that controls the operation of the receiver 142 and the pulse generator 143, and a storage device 145. The underground radar device 140 illustrated in FIG. 7B and FIG. 7C is a three-dimensional underground radar device including a plurality of antenna units 141. The length of the underground radar device 140 along the width direction of the vehicle body 101 (Y direction shown in FIG. 7C) is, for example, 100 cm to 200 cm. The plurality of transmitting antennas T are arranged at equal intervals (for example, tens of mm) along the width direction of the vehicle body 101, and the plurality of receiving antennas R can also be arranged at equal intervals (for example, tens of mm) along the width direction of the vehicle body 101. The three-dimensional underground radar device makes it possible to simultaneously obtain underground exploration data for multiple underground planes parallel to the XZ plane shown in FIG. 7A at intervals between the receiving antennas R. Based on the underground exploration data, the distribution of the underground part of the ground can be obtained as high-resolution three-dimensional information and visualized. This three-dimensional information can be visualized, thereby making it possible to obtain three-dimensional image data. In addition, the two-dimensional or three-dimensional shape or size of the underground part can be estimated based on the three-dimensional information showing the distribution of the underground part of the ground.

地中レーダ装置140は、例えば、ステップ周波数方式に従って、200MHzから3000MHzの周波数帯域の電磁波を送受信することができる。ただし、レーダ方式または変調方式はこれに限定されず、任意の方式であってよい。例えば、レーダ方式としてインパルス方式を利用し得る。地中レーダ装置140は、例えば、上記の周波数帯域の間で、正弦波周波数を段階的に上昇させながら、地面に電磁波を放射し、地中からの反射波を受信して得られた周波数スペクトルデータをフーリエ逆変換することで、地中からの反射波に相当する時間領域波形を生成し得る。反射波形が反射体77の位置または形状に依存するために、受信信号に基づいて、反射体77の位置(図7Cに示すZ方向の深さ)または形状を推定あるいは特定することが可能となる。 The underground radar device 140 can transmit and receive electromagnetic waves in a frequency band from 200 MHz to 3000 MHz, for example, according to a step frequency method. However, the radar method or modulation method is not limited to this and may be any method. For example, an impulse method may be used as the radar method. The underground radar device 140 can generate a time domain waveform corresponding to the reflected wave from the ground by, for example, emitting electromagnetic waves to the ground while gradually increasing the sine wave frequency between the above frequency bands, receiving the reflected wave from the ground, and performing an inverse Fourier transform on the frequency spectrum data obtained. Since the reflected waveform depends on the position or shape of the reflector 77, it is possible to estimate or identify the position (depth in the Z direction shown in FIG. 7C) or shape of the reflector 77 based on the received signal.

地中レーダ装置140から出力されるセンシングデータは、作業車両100の制御システム、管理装置600またはエッジコンピュータによって処理され得る。 The sensing data output from the underground radar device 140 can be processed by the control system of the work vehicle 100, the management device 600, or an edge computer.

地中レーダ装置140の測定範囲は、図7Cに示すように、車両本体の幅方向(図7Cに示すY方向)に沿った地中レーダ装置140の長さによって規定され得る。この測定範囲を「第2測定範囲」と呼ぶ。 The measurement range of the underground radar device 140 can be determined by the length of the underground radar device 140 along the width direction of the vehicle body (Y direction shown in FIG. 7C), as shown in FIG. 7C. This measurement range is called the "second measurement range."

作業車両100は、1または複数のLiDARセンサを備え得る。LiDARセンサは、周囲の環境に存在する物体の各計測点までの距離および方向、または各計測点の2次元もしくは3次元の座標値を示すセンサデータを繰り返し出力する。LiDARセンサは、作業車両100が主に圃場内を走行している間、レーザパルスを射出することによって、作業車両100の周辺に設定された測定範囲に存在する作物の地上部までの距離を検出する。LiDARセンサから出力されたセンサデータは、作業車両100の制御システムによって処理され得る。 The work vehicle 100 may be equipped with one or more LiDAR sensors. The LiDAR sensor repeatedly outputs sensor data indicating the distance and direction to each measurement point of an object in the surrounding environment, or the two-dimensional or three-dimensional coordinate values of each measurement point. The LiDAR sensor detects the distance to the above-ground part of a crop that is present within a measurement range set around the work vehicle 100 by emitting a laser pulse while the work vehicle 100 is traveling mainly within a field. The sensor data output from the LiDAR sensor may be processed by the control system of the work vehicle 100.

図3Aに示す例におけるLiDARセンサ220は、作業車両100のキャビン105の前部に配置されている。LiDARセンサ220は、キャビン105の前部に限定されず、作業車両100のボンネット上部またはキャビン105の後部等に配置され得る。使用するLiDARセンサの数は1個に限定されず、2個以上であり得る。 In the example shown in FIG. 3A, the LiDAR sensor 220 is disposed at the front of the cabin 105 of the work vehicle 100. The LiDAR sensor 220 is not limited to being disposed at the front of the cabin 105, but may be disposed on the top of the hood of the work vehicle 100 or at the rear of the cabin 105, etc. The number of LiDAR sensors used is not limited to one, but may be two or more.

LiDARセンサ220は、レーザビームのパルス(以下「レーザパルス」と略記する。)を、射出方向を変えながら次々と射出し、射出時刻と各レーザパルスの反射パルスを取得した時刻との時間差に基づいて、各反射点の位置までの距離および角度を計測することができる。LiDARセンサ220は、周囲に存在する構造物の空間分布に関する情報を含むセンシングデータを繰り返し取得する。空間分布は2次元または3次元空間における分布であり得る。本開示の実施形態におけるLiDARセンサ220は、作業車両100が圃場を走行している間、圃場内の地上における作物の地上部の分布に関する情報を含むセンシングデータを繰り返し取得する。 The LiDAR sensor 220 successively emits pulses of a laser beam (hereinafter abbreviated as "laser pulses") while changing the emission direction, and can measure the distance and angle to the position of each reflection point based on the time difference between the emission time and the time when the reflected pulse of each laser pulse is acquired. The LiDAR sensor 220 repeatedly acquires sensing data including information regarding the spatial distribution of structures present in the vicinity. The spatial distribution can be a distribution in two-dimensional or three-dimensional space. The LiDAR sensor 220 in the embodiment of the present disclosure repeatedly acquires sensing data including information regarding the distribution of the above-ground parts of crops on the ground in the field while the work vehicle 100 is traveling in the field.

図8Aは、LiDARセンサ220からレーザパルスが射出される方向および範囲を模式的に示す作業車両100の側面図である。LiDARセンサ220から負の仰角の方向に射出されたレーザパルスは太い破線で表され、LiDARセンサ220から正の仰角の方向に射出されたレーザパルスは細い破線で表されている。LiDARセンサ220から異なる仰角で射出される複数のレーザパルスのうち、負の仰角の方向に射出されたレーザパルスは、作物に当たらない場合、地面で反射され得る。一方、正の仰角の方向に射出されたレーザパルスは、作物に当たらない場合、反射点を形成せず、作物に当たった場合の反射点は、作物の幹部や枝部、葉部等が考えられ得る。このため、本開示の実施形態では、作物の幹部、枝部、葉部での反射を利用して作物の地上部における情報である地上情報を取得する。具体的には、LiDARセンサ220から異なる仰角で射出される複数のレーザパルスのうち、仰角が所定の範囲に含まれるレーザパルスの反射点に基づいて、地上情報を取得し得る。また、反射点の高さが作物の平均的な高さよりも低い反射点に基づいて地上情報を取得し得る。 FIG. 8A is a side view of the work vehicle 100, which shows a schematic diagram of the direction and range of the laser pulse emitted from the LiDAR sensor 220. The laser pulse emitted from the LiDAR sensor 220 in the direction of a negative elevation angle is represented by a thick dashed line, and the laser pulse emitted from the LiDAR sensor 220 in the direction of a positive elevation angle is represented by a thin dashed line. Of the multiple laser pulses emitted from the LiDAR sensor 220 at different elevation angles, the laser pulse emitted in the direction of a negative elevation angle may be reflected by the ground if it does not hit the crop. On the other hand, the laser pulse emitted in the direction of a positive elevation angle does not form a reflection point if it does not hit the crop, and the reflection point if it hits the crop may be the stem, branches, leaves, etc. of the crop. For this reason, in the embodiment of the present disclosure, ground information, which is information on the above-ground part of the crop, is obtained by utilizing reflections from the stem, branches, and leaves of the crop. Specifically, ground information can be obtained based on the reflection points of laser pulses whose elevation angles are within a predetermined range among multiple laser pulses emitted from the LiDAR sensor 220 at different elevation angles. Also, ground information can be obtained based on reflection points whose heights are lower than the average height of the crops.

LiDARセンサ220には、レーザパルスを出射する方法の違いに応じて複数の方式が存在する。例えば、レーザパルスのスキャンによって空間中の物体の距離分布の情報を取得するスキャン型のセンサ、または、広範囲に拡散する光を利用して空間中の物体の距離分布の情報を取得するフラッシュ型のセンサがある。スキャン型のLiDARセンサは、フラッシュ型のLiDARセンサよりも高い強度の光を使用するため、より遠方の距離情報を取得することができる。一方、フラッシュ型のLiDARセンサは、構造が簡易であり、比較的低コストで製造可能なため、強い光を必要としない用途に適する。本開示の実施形態では、主にスキャン型のLiDARセンサが用いられる例を説明するが、本開示はこれに限定されるものではない。 There are multiple types of LiDAR sensor 220 depending on the method of emitting laser pulses. For example, there is a scan type sensor that acquires information on the distance distribution of objects in space by scanning laser pulses, and a flash type sensor that acquires information on the distance distribution of objects in space by using light that is diffused over a wide area. A scan type LiDAR sensor uses light with a higher intensity than a flash type LiDAR sensor, and can acquire distance information from farther away. On the other hand, a flash type LiDAR sensor has a simple structure and can be manufactured at a relatively low cost, making it suitable for applications that do not require strong light. In the embodiments of the present disclosure, an example in which a scan type LiDAR sensor is mainly used is described, but the present disclosure is not limited thereto.

図8Bは、LiDARセンサ220を鉛直上方から見た場合の模式図である。本開示の実施形態では、図8Bに示すように、作業車両100の進行方向(X方向)に向いて、左の車輪から右の車輪の側までの第1測定範囲がLiDARセンサ220の測定範囲として設定される。LiDARセンサ220は、キャビン105の前部における上部の左右中央の位置に配置されている。これにより、LiDARセンサ220は、作業車両100の左右中心線を対称軸とする車体の左右および前方側の所定範囲が第1測定範囲に設定される。 Figure 8B is a schematic diagram of LiDAR sensor 220 as viewed vertically from above. In an embodiment of the present disclosure, as shown in Figure 8B, a first measurement range from the left wheel to the right wheel side facing the travel direction (X direction) of work vehicle 100 is set as the measurement range of LiDAR sensor 220. LiDAR sensor 220 is disposed in a central position on the left and right sides of the upper part of the front of cabin 105. As a result, a first measurement range of LiDAR sensor 220 is set to a predetermined range on the left, right and front sides of the vehicle body with the left and right center line of work vehicle 100 as the axis of symmetry.

LiDARセンサの構造および動作の例が、本出願人による国際出願の公開公報である国際公開第2022/107586号に詳しく記載されている。国際公開第2022/107586号の開示内容のすべてを参照により本明細書に援用する。 Examples of the structure and operation of LiDAR sensors are described in detail in the applicant's published international application WO 2022/107586, the entire disclosure of which is incorporated herein by reference.

再び図3Aを参照する。図3Aに示す複数の障害物センサ130は、キャビン105の前部および後部に設けられている。障害物センサ130は、他の部位にも配置され得る。例えば、車両本体101の側部、前部、および後部の任意の位置に、一つまたは複数の障害物センサ130が設けられ得る。障害物センサ130は、例えばレーザスキャナまたは超音波ソナーを含み得る。障害物センサ130は、自動走行時に周囲の障害物を検出して作業車両100を停止したり迂回したりするために用いられる。 Refer to FIG. 3A again. The obstacle sensors 130 shown in FIG. 3A are provided at the front and rear of the cabin 105. The obstacle sensors 130 may be located at other locations as well. For example, one or more obstacle sensors 130 may be provided at any position on the side, front, and rear of the vehicle body 101. The obstacle sensor 130 may include, for example, a laser scanner or ultrasonic sonar. The obstacle sensor 130 is used to detect surrounding obstacles during autonomous driving and to stop or detour the work vehicle 100.

本開示の実施形態における作業車両100は、さらに、測位ユニット110を備える。測位ユニット110は、作業車両100の位置である車体位置を出力する。車体位置は、例えば、ワールド座標系における作業車両100の緯度および経度を含む位置情報によって表される。ただし、測位ユニットは必須ではない。測位ユニット110の例はGNSSユニットである。以降、測位ユニット110をGNSSユニット110と呼ぶ。GNSSユニット110は、GNSS受信機を含む。GNSS受信機は、GNSS衛星からの信号を受信するアンテナと、アンテナが受信した信号に基づいて作業車両100の位置を計算するプロセッサとを備え得る。GNSSユニット110は、複数のGNSS衛星から送信される衛星信号を受信し、衛星信号に基づいて測位を行う。GNSSは、GPS(Global Positioning System)、QZSS(Quasi-Zenith Satellite System、例えばみちびき)、GLONASS、Galileo、およびBeiDouなどの衛星測位システムの総称である。本開示の実施形態におけるGNSSユニット110は、キャビン105の上部に設けられているが、他の位置に設けられていてもよい。 The work vehicle 100 in the embodiment of the present disclosure further includes a positioning unit 110. The positioning unit 110 outputs a vehicle body position, which is the position of the work vehicle 100. The vehicle body position is represented by position information including, for example, the latitude and longitude of the work vehicle 100 in the world coordinate system. However, the positioning unit is not essential. An example of the positioning unit 110 is a GNSS unit. Hereinafter, the positioning unit 110 is referred to as the GNSS unit 110. The GNSS unit 110 includes a GNSS receiver. The GNSS receiver may include an antenna that receives signals from GNSS satellites and a processor that calculates the position of the work vehicle 100 based on the signals received by the antenna. The GNSS unit 110 receives satellite signals transmitted from multiple GNSS satellites and performs positioning based on the satellite signals. GNSS is a general term for satellite positioning systems such as GPS (Global Positioning System), QZSS (Quasi-Zenith Satellite System, e.g., Michibiki), GLONASS, Galileo, and BeiDou. In the embodiment of the present disclosure, the GNSS unit 110 is provided on the top of the cabin 105, but may be provided in another location.

GNSSユニット110は、慣性計測装置(IMU)を含み得る。IMUからの信号を利用して位置データを補完することができる。IMUは、作業車両100の傾きおよび微小な動きを計測することができる。IMUによって取得されたデータを用いて、衛星信号に基づく位置データを補完することにより、測位の性能を向上させることができる。 The GNSS unit 110 may include an inertial measurement unit (IMU). Signals from the IMU may be used to supplement position data. The IMU may measure the tilt and minute movements of the work vehicle 100. Data acquired by the IMU may be used to supplement position data based on satellite signals, improving positioning performance.

本開示の実施形態における作業車両100の情報処理装置は、地中レーダ装置140が取得したセンシングデータに加え、GNSSユニット110による測位結果、カメラ120が取得した画像データ、およびLiDARセンサ220が取得したセンサデータのうちの少なくとも1つを利用して、作物の状態を推定することが可能である。また、作業車両100の情報処理装置は、これらのデータおよび測位結果に基づいて自己位置推定を行ってもよい。これにより、より高い精度で作業車両100の位置を特定できる。 The information processing device of the work vehicle 100 in the embodiment of the present disclosure is capable of estimating the condition of the crops using at least one of the positioning results from the GNSS unit 110, the image data acquired by the camera 120, and the sensor data acquired by the LiDAR sensor 220, in addition to the sensing data acquired by the underground radar device 140. The information processing device of the work vehicle 100 may also perform self-position estimation based on these data and the positioning results. This allows the position of the work vehicle 100 to be identified with greater accuracy.

原動機102は、例えばディーゼルエンジンであり得る。ディーゼルエンジンに代えて電動モータが使用されてもよい。変速装置103は、変速によって作業車両100の推進力および移動速度を変化させることができる。変速装置103は、作業車両100の前進と後進とを切り換えることもできる。 The prime mover 102 may be, for example, a diesel engine. An electric motor may be used instead of a diesel engine. The transmission 103 can change the propulsive force and travel speed of the work vehicle 100 by changing gears. The transmission 103 can also switch the work vehicle 100 between forward and reverse.

操舵装置106は、ステアリングホイールと、ステアリングホイールに接続されたステアリングシャフトと、ステアリングホイールによる操舵を補助するパワーステアリング装置とを含む。前輪104Fは操舵輪であり、その切れ角(「操舵角」とも称する。)を変化させることにより、作業車両100の走行方向を変化させることができる。前輪104Fの操舵角は、ステアリングホイールを操作することによって変化させることができる。パワーステアリング装置は、前輪104Fの操舵角を変化させるための補助力を供給する油圧装置または電動モータを含む。自動操舵が行われるときには、作業車両100内に配置された制御装置からの制御により、油圧装置または電動モータの力によって操舵角が自動で調整される。 The steering device 106 includes a steering wheel, a steering shaft connected to the steering wheel, and a power steering device that assists steering by the steering wheel. The front wheels 104F are steered wheels, and the driving direction of the work vehicle 100 can be changed by changing the turning angle (also called the "steering angle"). The steering angle of the front wheels 104F can be changed by operating the steering wheel. The power steering device includes a hydraulic device or an electric motor that supplies an auxiliary force to change the steering angle of the front wheels 104F. When automatic steering is performed, the steering angle is automatically adjusted by the force of the hydraulic device or the electric motor under the control of a control device arranged in the work vehicle 100.

車両本体101の後部には、連結装置108が設けられている。連結装置108は、例えば3点支持装置(「3点リンク」または「3点ヒッチ」とも称する。)、PTO(Power Take Off)軸、ユニバーサルジョイント、および通信ケーブルを含む。連結装置108によって作業機300を作業車両100に着脱することができる。連結装置108は、例えば油圧装置によって3点リンクを昇降させ、作業機300の位置または姿勢を変化させることができる。また、ユニバーサルジョイントを介して作業車両100から作業機300に動力を送ることができる。作業車両100は、作業機300を引きながら、作業機300に所定の作業を実行させることができる。連結装置は、車両本体101の前部に設けられていてもよい。その場合、作業車両100の前部に作業機を接続することができる。 A coupling device 108 is provided at the rear of the vehicle body 101. The coupling device 108 includes, for example, a three-point support device (also called a "three-point link" or "three-point hitch"), a PTO (Power Take Off) shaft, a universal joint, and a communication cable. The coupling device 108 can attach and detach the working machine 300 to the work vehicle 100. The coupling device 108 can raise and lower the three-point link using, for example, a hydraulic device, to change the position or attitude of the working machine 300. In addition, power can be sent from the work vehicle 100 to the working machine 300 via the universal joint. The work vehicle 100 can make the working machine 300 perform a predetermined task while pulling the working machine 300. The coupling device may be provided at the front of the vehicle body 101. In that case, the working machine can be connected to the front of the work vehicle 100.

図3Aに示す作業機300は、作物に薬剤を噴霧するスプレイヤであるが、作業機300はスプレイヤに限定されない。例えば、シーダ(播種機)、スプレッダ(施肥機)、移植機、モーア(草刈機)、レーキ、ベーラ(集草機)、ハーベスタ(収穫機)、ロータリ耕耘機、またはハローなどの、任意の作業機を作業車両100に接続して使用することができる。 The working machine 300 shown in FIG. 3A is a sprayer that sprays a chemical on crops, but the working machine 300 is not limited to a sprayer. For example, any working machine, such as a seeder, spreader, transplanter, mower, rake, baler, harvester, rotary tiller, or harrow, can be connected to the work vehicle 100 and used.

図3Aに示す作業車両100は、有人運転が可能であるが、無人運転のみに対応していてもよい。その場合には、キャビン105、操舵装置106、および運転席107などの、有人運転にのみ必要な構成要素は、作業車両100に設けられていなくてもよい。無人の作業車両100は、自律走行、またはユーザによる遠隔操作によって走行することができる。 The work vehicle 100 shown in FIG. 3A is capable of manned operation, but may also be capable of unmanned operation only. In that case, components necessary only for manned operation, such as the cabin 105, steering device 106, and driver's seat 107, may not be provided in the work vehicle 100. The unmanned work vehicle 100 can travel autonomously or by remote control by a user.

図4は、作業車両100および作業機300の構成例を示すブロック図である。作業車両100と作業機300は、連結装置108に含まれる通信ケーブルを介して互いに通信することができる。作業車両100は、ネットワーク80を介して、端末装置400および管理装置600と通信することができる。 Figure 4 is a block diagram showing an example configuration of the work vehicle 100 and the work machine 300. The work vehicle 100 and the work machine 300 can communicate with each other via a communication cable included in the coupling device 108. The work vehicle 100 can communicate with the terminal device 400 and the management device 600 via the network 80.

図4の例における作業車両100は、GNSSユニット110、カメラ120、障害物センサ130、地中レーダ装置140、操作端末200、およびLiDARセンサ220に加え、作業車両100の動作状態を検出するセンサ群150、制御システム160、通信装置190、操作スイッチ群210、および駆動装置240を備える。これらの構成要素は、バスを介して相互に通信可能に接続される。GNSSユニット110は、GNSS受信機111と、RTK受信機112と、慣性計測装置(IMU)115と、処理回路116とを備える。センサ群150は、ステアリングホイールセンサ152と、切れ角センサ154、車軸センサ156とを含む。制御システム160は、情報処理装置161と、記憶装置170と、制御装置180とを備える。制御装置180は、複数の電子制御ユニット(ECU)181から185を備える。作業機300は、駆動装置340と、制御装置380と、通信装置390とを備える。なお、図4には、作業車両100による自動運転の動作との関連性が相対的に高い構成要素が示されており、それ以外の構成要素の図示は省略されている。 In the example of FIG. 4, the work vehicle 100 includes a GNSS unit 110, a camera 120, an obstacle sensor 130, an underground radar device 140, an operation terminal 200, and a LiDAR sensor 220, as well as a sensor group 150 for detecting the operating state of the work vehicle 100, a control system 160, a communication device 190, an operation switch group 210, and a drive unit 240. These components are connected to each other so that they can communicate with each other via a bus. The GNSS unit 110 includes a GNSS receiver 111, an RTK receiver 112, an inertial measurement unit (IMU) 115, and a processing circuit 116. The sensor group 150 includes a steering wheel sensor 152, a turning angle sensor 154, and an axle sensor 156. The control system 160 includes an information processing device 161, a storage device 170, and a control device 180. The control device 180 includes multiple electronic control units (ECUs) 181 to 185. The work machine 300 includes a drive device 340, a control device 380, and a communication device 390. Note that FIG. 4 shows components that are relatively highly related to the operation of the autonomous driving of the work vehicle 100, and does not show other components.

GNSSユニット110におけるGNSS受信機111は、複数のGNSS衛星から送信される衛星信号を受信し、衛星信号に基づいてGNSSデータを生成する。GNSSデータは、例えばNMEA-0183フォーマットなどの所定のフォーマットで生成される。GNSSデータは、例えば、衛星信号が受信されたそれぞれの衛星の識別番号、仰角、方位角、および受信強度を示す値を含み得る。 The GNSS receiver 111 in the GNSS unit 110 receives satellite signals transmitted from multiple GNSS satellites and generates GNSS data based on the satellite signals. The GNSS data is generated in a predetermined format, such as the NMEA-0183 format. The GNSS data may include, for example, values indicating the identification number, elevation angle, azimuth angle, and reception strength of each satellite from which the satellite signal is received.

図4に示すGNSSユニット110は、RTK(Real Time Kinematic)-GNSSを利用して作業車両100の測位を行う。図5は、RTK-GNSSによる測位を行う作業車両100の例を示す概念図である。RTK-GNSSによる測位では、複数のGNSS衛星50から送信される衛星信号に加えて、基準局60から送信される補正信号が利用される。基準局60は、作業車両100が作業走行を行う圃場の付近(例えば、作業車両100から10km以内の位置)に設置され得る。基準局60は、複数のGNSS衛星50から受信した衛星信号に基づいて、例えばRTCMフォーマットの補正信号を生成し、GNSSユニット110に送信する。RTK受信機112は、アンテナおよびモデムを含み、基準局60から送信される補正信号を受信する。GNSSユニット110の処理回路116は、補正信号に基づき、GNSS受信機111による測位結果を補正する。RTK-GNSSを用いることにより、例えば誤差数cmの精度で測位を行うことが可能である。緯度、経度、および高度の情報を含む位置情報が、RTK-GNSSによる高精度の測位によって取得される。GNSSユニット110は、例えば1秒間に1回から10回程度の頻度で、作業車両100の位置を計算する。 The GNSS unit 110 shown in FIG. 4 uses RTK (Real Time Kinematic)-GNSS to perform positioning of the work vehicle 100. FIG. 5 is a conceptual diagram showing an example of a work vehicle 100 performing positioning using RTK-GNSS. In positioning using RTK-GNSS, in addition to satellite signals transmitted from multiple GNSS satellites 50, correction signals transmitted from a reference station 60 are used. The reference station 60 may be installed near the field where the work vehicle 100 performs work travel (for example, within 10 km from the work vehicle 100). The reference station 60 generates a correction signal, for example in RTCM format, based on the satellite signals received from the multiple GNSS satellites 50 and transmits it to the GNSS unit 110. The RTK receiver 112 includes an antenna and a modem, and receives the correction signal transmitted from the reference station 60. The processing circuit 116 of the GNSS unit 110 corrects the positioning results obtained by the GNSS receiver 111 based on the correction signal. By using RTK-GNSS, it is possible to perform positioning with an accuracy of, for example, a few centimeters. Position information including latitude, longitude, and altitude information is obtained by highly accurate positioning using RTK-GNSS. The GNSS unit 110 calculates the position of the work vehicle 100 at a frequency of, for example, about 1 to 10 times per second.

なお、測位方法はRTK-GNSSに限らず、必要な精度の位置情報が得られる任意の測位方法(干渉測位法または相対測位法など)を用いることができる。例えば、VRS(Virtual Reference Station)またはDGPS(Differential Global Positioning System)を利用した測位を行ってもよい。基準局60から送信される補正信号を用いなくても必要な精度の位置情報が得られる場合は、補正信号を用いずに位置情報を生成してもよい。その場合、GNSSユニット110は、RTK受信機112を備えていなくてもよい。 The positioning method is not limited to RTK-GNSS, and any positioning method (such as interferometric positioning or relative positioning) that can obtain position information with the required accuracy can be used. For example, positioning may be performed using a Virtual Reference Station (VRS) or a Differential Global Positioning System (DGPS). If position information with the required accuracy can be obtained without using a correction signal transmitted from the reference station 60, the position information may be generated without using a correction signal. In that case, the GNSS unit 110 does not need to be equipped with an RTK receiver 112.

RTK-GNSSを利用する場合であっても、基準局60からの補正信号が得られない場所(例えば圃場から遠く離れた道路上)では、RTK受信機112からの信号によらず、他の方法で作業車両100の位置が推定される。例えば、カメラ120および/またはLiDARセンサ220から出力されたデータと、高精度の環境地図とのマッチングによって、作業車両100の位置が推定され得る。また、作業車両100が圃場を走行するときは、地中レーダ装置140から出力されたセンシングデータと、高精度の地下地図とのマッチングによって、作業車両100の位置が推定され得る。 Even when RTK-GNSS is used, in places where a correction signal from the reference station 60 cannot be obtained (for example, on a road far from a field), the position of the work vehicle 100 is estimated by other methods rather than relying on the signal from the RTK receiver 112. For example, the position of the work vehicle 100 can be estimated by matching the data output from the camera 120 and/or the LiDAR sensor 220 with a highly accurate environmental map. Also, when the work vehicle 100 travels through a field, the position of the work vehicle 100 can be estimated by matching the sensing data output from the underground radar device 140 with a highly accurate underground map.

本開示の実施形態におけるGNSSユニット110は、さらにIMU115を備える。IMU115は、3軸加速度センサおよび3軸ジャイロスコープを備え得る。IMU115は、3軸地磁気センサなどの方位センサを備えていてもよい。IMU115は、モーションセンサとして機能し、作業車両100の加速度、速度、変位、および姿勢などの諸量を示す信号を出力することができる。処理回路116は、衛星信号および補正信号に加えて、IMU115から出力された信号に基づいて、作業車両100の位置および向きをより高い精度で推定することができる。IMU115から出力された信号は、衛星信号および補正信号に基づいて計算される位置の補正または補完に用いられ得る。IMU115は、GNSS受信機111よりも高い頻度で信号を出力する。その高頻度の信号を利用して、処理回路116は、作業車両100の位置および向きをより高い頻度(例えば、10Hz以上)で計測することができる。IMU115に代えて、3軸加速度センサおよび3軸ジャイロスコープを別々に設けてもよい。IMU115は、GNSSユニット110とは別の装置として設けられていてもよい。 The GNSS unit 110 in the embodiment of the present disclosure further includes an IMU 115. The IMU 115 may include a three-axis acceleration sensor and a three-axis gyroscope. The IMU 115 may include an orientation sensor such as a three-axis geomagnetic sensor. The IMU 115 functions as a motion sensor and can output signals indicating various quantities such as the acceleration, speed, displacement, and attitude of the work vehicle 100. The processing circuit 116 can estimate the position and orientation of the work vehicle 100 with higher accuracy based on the signal output from the IMU 115 in addition to the satellite signal and the correction signal. The signal output from the IMU 115 can be used to correct or complement the position calculated based on the satellite signal and the correction signal. The IMU 115 outputs signals at a higher frequency than the GNSS receiver 111. Using the high-frequency signal, the processing circuit 116 can measure the position and orientation of the work vehicle 100 at a higher frequency (e.g., 10 Hz or more). Instead of the IMU 115, a three-axis acceleration sensor and a three-axis gyroscope may be provided separately. The IMU 115 may be provided as a device separate from the GNSS unit 110.

カメラ120は、作業車両100の周囲の環境を撮影する撮像装置である。カメラ120は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサを備える。カメラ120は、他にも、一つ以上のレンズを含む光学系、および信号処理回路を備え得る。カメラ120は、作業車両100の走行中、作業車両100の周囲の環境を撮影し、画像(例えば動画)のデータを生成する。カメラ120は、例えば、3フレーム/秒(fps: frames per second)以上のフレームレートで動画を撮影することができる。カメラ120によって生成された画像は、遠隔の監視者が端末装置400を用いて作業車両100の周囲の環境を確認するときに利用され得、測位または障害物の検出に利用され得る。とりわけ、カメラ120によって生成された、作物の地上部を含む画像は、作物の状態の推定に利用される。 The camera 120 is an imaging device that captures the environment around the work vehicle 100. The camera 120 includes an image sensor, such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). The camera 120 may also include an optical system including one or more lenses, and a signal processing circuit. The camera 120 captures the environment around the work vehicle 100 while the work vehicle 100 is traveling, and generates image (e.g., video) data. The camera 120 can capture video at a frame rate of, for example, 3 frames per second (fps) or more. The images generated by the camera 120 can be used when a remote observer uses the terminal device 400 to check the environment around the work vehicle 100, and can be used for positioning or obstacle detection. In particular, the images generated by the camera 120, including the above-ground parts of the crop, are used to estimate the condition of the crop.

図3Aに示すように、複数のカメラ120が作業車両100の異なる位置に設けられていてもよいし、単数のカメラが設けられていてもよい。可視光画像を生成する可視カメラと、赤外線画像を生成する赤外カメラとが別々に設けられていてもよい。可視カメラと赤外カメラの両方が監視用の画像を生成するカメラとして設けられていてもよい。赤外カメラは、夜間において障害物の検出にも用いられ得る。 As shown in FIG. 3A, multiple cameras 120 may be provided at different positions on the work vehicle 100, or a single camera may be provided. A visible camera that generates visible light images and an infrared camera that generates infrared images may be provided separately. Both a visible camera and an infrared camera may be provided as cameras that generate images for surveillance. The infrared camera may also be used to detect obstacles at night.

障害物センサ130は、作業車両100の周囲に存在する物体を検出する。障害物センサ130は、例えばレーザスキャナまたは超音波ソナーを含み得る。障害物センサ130は、障害物センサ130から所定の距離よりも近くに物体が存在する場合に、障害物が存在することを示す信号を出力する。複数の障害物センサ130が作業車両100の異なる位置に設けられていてもよい。例えば、複数のレーザスキャナと、複数の超音波ソナーとが、作業車両100の異なる位置に配置されていてもよい。そのような多くの障害物センサ130を備えることにより、作業車両100の周囲の障害物の監視における死角を減らすことができる。 The obstacle sensor 130 detects objects present around the work vehicle 100. The obstacle sensor 130 may include, for example, a laser scanner or an ultrasonic sonar. When an object is present closer than a predetermined distance from the obstacle sensor 130, the obstacle sensor 130 outputs a signal indicating the presence of an obstacle. Multiple obstacle sensors 130 may be provided at different positions on the work vehicle 100. For example, multiple laser scanners and multiple ultrasonic sonars may be arranged at different positions on the work vehicle 100. By providing such a large number of obstacle sensors 130, blind spots in monitoring obstacles around the work vehicle 100 can be reduced.

ステアリングホイールセンサ152は、作業車両100のステアリングホイールの回転角を計測する。切れ角センサ154は、操舵輪である前輪104Fの切れ角を計測する。ステアリングホイールセンサ152および切れ角センサ154による計測値は、制御装置180による操舵制御に利用される。 The steering wheel sensor 152 measures the rotation angle of the steering wheel of the work vehicle 100. The turning angle sensor 154 measures the turning angle of the front wheels 104F, which are the steered wheels. The measurements by the steering wheel sensor 152 and the turning angle sensor 154 are used for steering control by the control device 180.

車軸センサ156は、車輪104に接続された車軸の回転速度、すなわち単位時間あたりの回転数を計測する。車軸センサ156は、例えば磁気抵抗素子(MR)、ホール素子、または電磁ピックアップを利用したセンサであり得る。車軸センサ156は、例えば、車軸の1分あたりの回転数(単位:rpm)を示す数値を出力する。車軸センサ156は、作業車両100の速度を計測するために使用される。 The axle sensor 156 measures the rotational speed of the axle connected to the wheel 104, i.e., the number of rotations per unit time. The axle sensor 156 may be, for example, a sensor that uses a magnetoresistive element (MR), a Hall element, or an electromagnetic pickup. The axle sensor 156 outputs, for example, a numerical value indicating the number of rotations per minute (unit: rpm) of the axle. The axle sensor 156 is used to measure the speed of the work vehicle 100.

駆動装置240は、前述の原動機102、変速装置103、操舵装置106、および連結装置108などの、作業車両100の走行および作業機300の駆動に必要な各種の装置を含む。原動機102は、例えばディーゼル機関などの内燃機関を備え得る。駆動装置240は、内燃機関に代えて、あるいは内燃機関とともに、トラクション用の電動モータを備えていてもよい。 The drive device 240 includes various devices necessary for the travel of the work vehicle 100 and the driving of the work equipment 300, such as the prime mover 102, the transmission 103, the steering device 106, and the coupling device 108 described above. The prime mover 102 may be equipped with an internal combustion engine such as a diesel engine. The drive device 240 may be equipped with an electric motor for traction instead of or in addition to the internal combustion engine.

情報処理装置161の例は、マイクロプロセッサまたはマイクロコントローラである。情報処理装置161は、例えば、地中レーダ装置140から出力されるセンシングデータを処理する。本開示の実施形態における情報処理装置161は、第1センサが検出した複数の地上情報と、第2センサが検出した複数の地下情報とを参照し、複数の地上情報のうち所定の地上情報に共通する所定の地下情報を抽出し、抽出した所定の地下情報と、所定の地上情報とを関連付け、関連付けられた所定の地上情報および所定の地下情報から、作物の状態を推定する。作物の状態の推定については、後で詳しく説明する。また、本開示の実施形態における情報処理装置161は、地上情報と地下情報とに基づいて、作物の形状を作成し、作成した作物の形状を、圃場を示すフィールドに展開することによって、圃場マップを作成し得る。圃場マップのデータは、管理装置600におけるプロセッサまたはエッジコンピュータによって生成あるいは編集されてもよい。情報処理装置161が行う一連の処理を後述する制御装置180に実行させることも可能である。 An example of the information processing device 161 is a microprocessor or a microcontroller. The information processing device 161 processes, for example, sensing data output from the underground radar device 140. The information processing device 161 in the embodiment of the present disclosure refers to a plurality of pieces of ground information detected by the first sensor and a plurality of pieces of underground information detected by the second sensor, extracts predetermined underground information common to a predetermined piece of ground information from the plurality of pieces of ground information, associates the extracted predetermined underground information with the predetermined ground information, and estimates the state of the crop from the associated predetermined ground information and predetermined underground information. The estimation of the state of the crop will be described in detail later. In addition, the information processing device 161 in the embodiment of the present disclosure can create a crop shape based on the ground information and the underground information, and create a field map by expanding the created crop shape in a field indicating the field. The data of the field map may be generated or edited by a processor or an edge computer in the management device 600. It is also possible to cause the control device 180, which will be described later, to execute a series of processes performed by the information processing device 161.

記憶装置170は、フラッシュメモリまたは磁気ディスクなどの一つ以上の記憶媒体を含む。記憶装置170は、GNSSユニット110、カメラ120、障害物センサ130、地中レーダ装置140、センサ群150、情報処理装置161および制御装置180が生成する各種のデータを記憶する。記憶装置170が記憶するデータには、作業車両100が走行する圃場内の圃場マップ、作業車両100が走行する環境内の環境地図、地下地図、および自動運転のための目標経路のデータが含まれ得る。環境地図は、例えば、作業車両100が農作業を行う複数の圃場およびその周辺の道の情報を含む。環境地図および目標経路は、管理装置600におけるプロセッサによって生成され得る。なお、制御装置180が、環境地図および目標経路を生成または編集する機能を備えていてもよい。制御装置180は、管理装置600から取得した環境地図および目標経路を、作業車両100の走行環境に応じて編集することができる。記憶装置170は、通信装置190が管理装置600から受信した作業計画のデータも記憶する。 The storage device 170 includes one or more storage media such as a flash memory or a magnetic disk. The storage device 170 stores various data generated by the GNSS unit 110, the camera 120, the obstacle sensor 130, the underground radar device 140, the sensor group 150, the information processing device 161, and the control device 180. The data stored in the storage device 170 may include a field map in the field in which the work vehicle 100 travels, an environmental map in the environment in which the work vehicle 100 travels, an underground map, and data on a target route for automatic driving. The environmental map includes, for example, information on a plurality of fields in which the work vehicle 100 performs agricultural work and roads in the surrounding area. The environmental map and the target route may be generated by a processor in the management device 600. The control device 180 may have a function of generating or editing the environmental map and the target route. The control device 180 can edit the environmental map and the target route acquired from the management device 600 according to the traveling environment of the work vehicle 100. The storage device 170 also stores the work plan data received by the communication device 190 from the management device 600.

記憶装置170は、情報処理装置161、および制御装置180における各ECUに、後述する各種の動作を実行させるコンピュータプログラムも記憶する。そのようなコンピュータプログラムは、記憶媒体(例えば半導体メモリまたは光ディスク等)または電気通信回線(例えばインターネット)を介して作業車両100に提供され得る。そのようなコンピュータプログラムが、商用ソフトウェアとして販売されてもよい。 The storage device 170 also stores computer programs that cause the information processing device 161 and each ECU in the control device 180 to execute various operations described below. Such computer programs may be provided to the work vehicle 100 via a storage medium (e.g., a semiconductor memory or an optical disk) or an electric communication line (e.g., the Internet). Such computer programs may be sold as commercial software.

制御装置180は、複数のECUを含む。複数のECUは、例えば、速度制御用のECU181、ステアリング制御用のECU182、インプルメント制御用のECU183、自動運転制御用のECU184、および経路生成用のECU185を含む。 The control device 180 includes multiple ECUs. The multiple ECUs include, for example, an ECU 181 for speed control, an ECU 182 for steering control, an ECU 183 for implement control, an ECU 184 for automatic driving control, and an ECU 185 for route generation.

ECU181は、駆動装置240に含まれる原動機102、変速装置103、およびブレーキを制御することによって作業車両100の速度を制御する。 The ECU 181 controls the speed of the work vehicle 100 by controlling the prime mover 102, the transmission 103, and the brakes included in the drive unit 240.

ECU182は、ステアリングホイールセンサ152の計測値に基づいて、操舵装置106に含まれる油圧装置または電動モータを制御することによって作業車両100のステアリングを制御する。 The ECU 182 controls the steering of the work vehicle 100 by controlling the hydraulic device or electric motor included in the steering device 106 based on the measurement value of the steering wheel sensor 152.

ECU183は、作業機300に所望の動作を実行させるために、連結装置108に含まれる3点リンクおよびPTO軸などの動作を制御する。ECU183はまた、作業機300の動作を制御する信号を生成し、その信号を通信装置190から作業機300に送信する。 The ECU 183 controls the operation of the three-point link and the PTO shaft included in the coupling device 108 to cause the working machine 300 to perform a desired operation. The ECU 183 also generates a signal that controls the operation of the working machine 300 and transmits the signal from the communication device 190 to the working machine 300.

ECU184は、GNSSユニット110、カメラ120、障害物センサ130、情報処理装置161およびセンサ群150から出力されたデータに基づいて、自動運転を実現するための演算および制御を行う。例えば、ECU184は、GNSSユニット110、カメラ120および情報処理装置161の少なくとも1つから出力されたデータに基づいて、作業車両100の位置を特定する。ECU184は、LiDARセンサ220から出力されたデータにさらに基づいて、作業車両100の位置を特定し得る。作業車両100がとりわけ圃場を走行するときは、情報処理装置161は、単独でまたはECU184と協働して、地中レーダ装置140から出力されたセンシングデータに基づいて自己位置推定を行い得る。ECU184は、カメラ120またはLiDARセンサ220が取得したデータに基づいて、情報処理装置161が推定した作業車両100の位置を補正してもよい。また、圃場外においては、ECU184は、カメラ120またはLiDARセンサ220から出力されるデータを利用して作業車両100の位置を推定する。例えば、ECU184は、カメラ120またはLiDARセンサ220から出力されるデータと、環境地図とのマッチングにより、作業車両100の位置を推定してもよい。自動運転中、ECU184は、推定された作業車両100の位置に基づいて、目標経路に沿って作業車両100が走行するために必要な演算を行う。ECU184は、ECU181に速度変更の指令を送り、ECU182に操舵角変更の指令を送る。ECU181は、速度変更の指令に応答して原動機102、変速装置103、またはブレーキを制御することによって作業車両100の速度を変化させる。ECU182は、操舵角変更の指令に応答して操舵装置106を制御することによって操舵角を変化させる。 The ECU 184 performs calculations and control to realize autonomous driving based on data output from the GNSS unit 110, the camera 120, the obstacle sensor 130, the information processing device 161, and the sensor group 150. For example, the ECU 184 identifies the position of the work vehicle 100 based on data output from at least one of the GNSS unit 110, the camera 120, and the information processing device 161. The ECU 184 may identify the position of the work vehicle 100 based further on data output from the LiDAR sensor 220. When the work vehicle 100 travels particularly in a field, the information processing device 161 may perform self-position estimation based on sensing data output from the underground radar device 140, either alone or in cooperation with the ECU 184. The ECU 184 may correct the position of the work vehicle 100 estimated by the information processing device 161 based on data acquired by the camera 120 or the LiDAR sensor 220. Outside the field, the ECU 184 estimates the position of the work vehicle 100 using data output from the camera 120 or the LiDAR sensor 220. For example, the ECU 184 may estimate the position of the work vehicle 100 by matching the data output from the camera 120 or the LiDAR sensor 220 with an environmental map. During automatic driving, the ECU 184 performs calculations necessary for the work vehicle 100 to travel along the target route based on the estimated position of the work vehicle 100. The ECU 184 sends a speed change command to the ECU 181 and a steering angle change command to the ECU 182. In response to the speed change command, the ECU 181 changes the speed of the work vehicle 100 by controlling the prime mover 102, the transmission 103, or the brakes. In response to the steering angle change command, the ECU 182 changes the steering angle by controlling the steering device 106.

ECU185は、作業車両100の走行中、カメラ120および障害物センサ130から出力されたデータに基づいて、作業車両100の周囲に存在する障害物を認識する。また、ECU185は、記憶装置170に格納された作業計画に基づいて作業車両100の移動先を決定し、作業車両100の移動の開始地点から目的地点までの目標経路を決定し得る。 While the work vehicle 100 is traveling, the ECU 185 recognizes obstacles that exist around the work vehicle 100 based on data output from the camera 120 and the obstacle sensor 130. The ECU 185 can also determine the destination of the work vehicle 100 based on the work plan stored in the storage device 170, and determine a target route from the start point of the movement of the work vehicle 100 to the destination point.

これらのECUの働きにより、制御装置180は、情報処理装置161と協働して、自動運転を実現する。自動運転時において、制御装置180は、計測または推定された作業車両100の位置と、目標経路とに基づいて、駆動装置240を制御する。これにより、制御装置180は、作業車両100を目標経路に沿って走行させることができる。 Through the operation of these ECUs, the control device 180 cooperates with the information processing device 161 to realize autonomous driving. During autonomous driving, the control device 180 controls the drive device 240 based on the measured or estimated position of the work vehicle 100 and the target route. In this way, the control device 180 can drive the work vehicle 100 along the target route.

制御装置180に含まれる複数のECUは、例えばCAN(Controller Area Network)などのビークルバス規格に従って、相互に通信することができる。CANに代えて、車載イーサネット(登録商標)などの、より高速の通信方式が用いられてもよい。図4において、情報処理装置161、およびECU181から185のそれぞれは、個別のブロックとして示されているが、これらのそれぞれの機能が、複数のECUによって実現されていてもよい。情報処理装置161、ECU181から185の少なくとも一部の機能を統合した車載コンピュータが設けられていてもよい。制御装置180は、ECU181から185以外のECUを備えていてもよく、機能に応じて任意の個数のECUが設けられ得る。例えば、情報処理装置161は、ECUとして制御装置180に実装されてもよい。各ECUは、一つ以上のプロセッサを含む処理回路を備える。 The multiple ECUs included in the control device 180 can communicate with each other according to a vehicle bus standard such as CAN (Controller Area Network). A faster communication method such as in-vehicle Ethernet (registered trademark) may be used instead of CAN. In FIG. 4, the information processing device 161 and the ECUs 181 to 185 are shown as individual blocks, but their respective functions may be realized by multiple ECUs. An in-vehicle computer that integrates at least some of the functions of the information processing device 161 and the ECUs 181 to 185 may be provided. The control device 180 may include ECUs other than the ECUs 181 to 185, and any number of ECUs may be provided depending on the functions. For example, the information processing device 161 may be implemented in the control device 180 as an ECU. Each ECU includes a processing circuit including one or more processors.

通信装置190は、作業機300、端末装置400、および管理装置600と通信を行う回路を含む装置である。通信装置190は、例えばISOBUS-TIM等のISOBUS規格に準拠した信号の送受信を、作業機300の通信装置390との間で実行する回路を含む。これにより、作業機300に所望の動作を実行させたり、作業機300から情報を取得したりすることができる。通信装置190は、さらに、ネットワーク80を介した信号の送受信を、端末装置400および管理装置600のそれぞれの通信装置との間で実行するためのアンテナおよび通信回路を含み得る。ネットワーク80は、例えば、3G、4Gもしくは5Gなどのセルラー移動体通信網およびインターネットを含み得る。通信装置190は、作業車両100の近くにいる監視者が使用する携帯端末と通信する機能を備えていてもよい。そのような携帯端末との間では、Wi-Fi(登録商標)、3G、4Gもしくは5Gなどのセルラー移動体通信、またはBluetooth(登録商標)などの、任意の無線通信規格に準拠した通信が行われ得る。 The communication device 190 is a device including a circuit for communicating with the work machine 300, the terminal device 400, and the management device 600. The communication device 190 includes a circuit for transmitting and receiving signals conforming to the ISOBUS standard such as ISOBUS-TIM between the communication device 390 of the work machine 300. This allows the work machine 300 to perform a desired operation and obtain information from the work machine 300. The communication device 190 may further include an antenna and a communication circuit for transmitting and receiving signals via the network 80 between the communication devices of the terminal device 400 and the management device 600. The network 80 may include, for example, a cellular mobile communication network such as 3G, 4G, or 5G, and the Internet. The communication device 190 may have a function for communicating with a mobile terminal used by a supervisor near the work vehicle 100. Communication between such mobile terminals can be performed in accordance with any wireless communication standard, such as Wi-Fi (registered trademark), cellular mobile communications such as 3G, 4G, or 5G, or Bluetooth (registered trademark).

操作端末200は、作業車両100の走行および作業機300の動作に関する操作をユーザが実行するための端末であり、バーチャルターミナル(VT)とも称される。操作端末200は、タッチスクリーンなどの表示装置、および/または一つ以上のボタンを備え得る。表示装置は、例えば液晶または有機発光ダイオード(OLED)などのディスプレイであり得る。ユーザは、操作端末200を操作することにより、例えば自動運転モードのオン/オフの切り替え、環境地図の記録または編集、目標経路の設定、および作業機300のオン/オフの切り替えなどの種々の操作を実行することができる。これらの操作の少なくとも一部は、操作スイッチ群210を操作することによっても実現され得る。操作端末200は、作業車両100から取り外せるように構成されていてもよい。作業車両100から離れた場所にいるユーザが、取り外された操作端末200を操作して作業車両100の動作を制御してもよい。ユーザは、操作端末200の代わりに、端末装置400などの、必要なアプリケーションソフトウェアがインストールされたコンピュータを操作して作業車両100の動作を制御してもよい。 The operation terminal 200 is a terminal through which a user performs operations related to the traveling of the work vehicle 100 and the operation of the work machine 300, and is also called a virtual terminal (VT). The operation terminal 200 may include a display device such as a touch screen, and/or one or more buttons. The display device may be, for example, a liquid crystal or organic light-emitting diode (OLED) display. By operating the operation terminal 200, a user can perform various operations such as switching the automatic driving mode on/off, recording or editing an environmental map, setting a target route, and switching the work machine 300 on/off. At least some of these operations can also be realized by operating the operation switch group 210. The operation terminal 200 may be configured to be removable from the work vehicle 100. A user at a location away from the work vehicle 100 may operate the detached operation terminal 200 to control the operation of the work vehicle 100. The user may control the operation of the work vehicle 100 by operating a computer on which necessary application software is installed, such as a terminal device 400, instead of the operation terminal 200.

図6は、キャビン105の内部に設けられる操作端末200および操作スイッチ群210の例を示す図である。キャビン105の内部には、ユーザが操作可能な複数のスイッチを含む操作スイッチ群210が配置されている。操作スイッチ群210は、例えば、主変速または副変速の変速段を選択するためのスイッチ、自動運転モードと手動運転モードとを切り替えるためのスイッチ、前進と後進とを切り替えるためのスイッチ、および作業機300を昇降するためのスイッチ等を含み得る。なお、作業車両100が無人運転のみを行い、有人運転の機能を備えていない場合、作業車両100が操作スイッチ群210を備えている必要はない。 Figure 6 is a diagram showing an example of an operation terminal 200 and an operation switch group 210 provided inside the cabin 105. Inside the cabin 105, an operation switch group 210 including a plurality of switches that can be operated by a user is arranged. The operation switch group 210 may include, for example, a switch for selecting a main or sub-transmission gear shift stage, a switch for switching between an automatic driving mode and a manual driving mode, a switch for switching between forward and reverse, and a switch for raising and lowering the work machine 300. Note that if the work vehicle 100 only performs unmanned driving and does not have a function for manned driving, the work vehicle 100 does not need to have the operation switch group 210.

図4に示す作業機300における駆動装置340は、作業機300が所定の作業を実行するために必要な動作を行う。駆動装置340は、例えば油圧装置、電気モータ、またはポンプなどの、作業機300の用途に応じた装置を含む。制御装置380は、駆動装置340の動作を制御する。制御装置380は、通信装置390を介して作業車両100から送信された信号に応答して、駆動装置340に各種の動作を実行させる。また、作業機300の状態に応じた信号を通信装置390から作業車両100に送信することもできる。 The drive unit 340 in the work machine 300 shown in FIG. 4 performs the operations necessary for the work machine 300 to perform a specified task. The drive unit 340 includes devices according to the application of the work machine 300, such as a hydraulic device, an electric motor, or a pump. The control device 380 controls the operation of the drive unit 340. The control device 380 causes the drive unit 340 to perform various operations in response to signals transmitted from the work vehicle 100 via the communication device 390. In addition, a signal according to the state of the work machine 300 can also be transmitted from the communication device 390 to the work vehicle 100.

図9は、圃場に植え付けられた作物群の地下に存在する地下部の分布を模式的に示す図である。図9には、作物群のうちの9つの作物の地下部700に着目して例示している。作物群のそれぞれの地下部が、圃場の地中に張り巡らされ、全体の地下部を形成している。地下部の分布または形状は、個々の作物ごとに異なっている。それぞれの根は3次元空間中に不規則に伸びている。例えば、ぶどうの標準的な根の太さ(直径)は、0.5cm~2cm程度であり、太い根は2cm以上の直径を有し、細い根は0.5cm以下の直径を有し得る。ぶどうの根は、幹から水平方向(地中の深さ方向に直交する方向)に例えば2m~3m離れた地点にまで到達し得る。 Figure 9 is a diagram showing a schematic distribution of the underground parts of crops planted in a field. Figure 9 shows an example focusing on the underground parts 700 of nine crops among the crops. The underground parts of each crop are spread throughout the ground of the field to form the overall underground part. The distribution or shape of the underground parts differs for each individual crop. Each root extends irregularly in three-dimensional space. For example, the standard root size (diameter) of grapes is about 0.5 cm to 2 cm, with thick roots having a diameter of 2 cm or more and thin roots having a diameter of 0.5 cm or less. Grape roots can reach a point, for example, 2 m to 3 m away from the trunk in the horizontal direction (direction perpendicular to the depth direction of the ground).

作業車両100が圃場を走行している間に、地中レーダ装置140が、地中における作物の地下部700に関する情報を含むセンシングデータを取得する。作業車両100が、例えば、図9に示すX方向またはY方向に沿って往復を繰り返すと、地中レーダ装置140は、地中の地下部700の分布を示す3次元情報を含むセンシングデータを取得する。個々のセンシングデータは、地中レーダ装置140の受信アンテナが受信した地中からの反射波に基づいて得られる観測データである。例えば、1500MHz~2000MHzのマイクロ波を利用すると、地面から深さ30cm程度までに存在し、かつ、直径が5mm以上の根を検出することができる。400MHz程度の比較的低い周波数のマイクロ波を利用すると、直径が2cm~4cmであれば、地面から深さ2m程度までに存在する根を検出することができる。 While the work vehicle 100 is traveling in the field, the underground radar device 140 acquires sensing data including information about the underground part 700 of the crop underground. When the work vehicle 100 repeatedly travels back and forth along the X direction or Y direction shown in FIG. 9, for example, the underground radar device 140 acquires sensing data including three-dimensional information showing the distribution of the underground part 700 underground. Each piece of sensing data is observation data obtained based on the reflected waves from the ground received by the receiving antenna of the underground radar device 140. For example, by using microwaves of 1500 MHz to 2000 MHz, it is possible to detect roots that exist at a depth of about 30 cm from the ground and have a diameter of 5 mm or more. By using microwaves of a relatively low frequency of about 400 MHz, it is possible to detect roots that exist at a depth of about 2 m from the ground if the roots have a diameter of 2 cm to 4 cm.

再び、図7Aおよび図7Cを参照する。作業車両100が例えばX方向に走行する場合、作業車両100の幅方向(Y方向)に所定間隔で配置された複数の受信アンテナRの各々が、地中からの反射波を受信することにより、図9に示すXZ平面に平行な縦断面における地下部の縦断面プロファイルが受信アンテナRの数だけ得られる。情報処理装置161は、複数の縦断面プロファイルをY方向に繋ぎ合わせることで、圃場全体の地下部の分布を示す3次元データ群を生成し得る。3次元データ群は、モデリングして可視化することが可能である。情報処理装置161は、観測して得られたデータ群に基づいて地下部の形状を推定することができる。観測して得られたデータ群に基づいて生成される画像をレーダ画像と呼ぶ。レーダ画像は、例えば地下部の形状の一部または全部を含む。 7A and 7C are referred to again. When the work vehicle 100 travels, for example, in the X direction, each of the multiple receiving antennas R arranged at a predetermined interval in the width direction (Y direction) of the work vehicle 100 receives reflected waves from the ground, and thus the vertical section profiles of the underground part in the vertical section parallel to the XZ plane shown in FIG. 9 are obtained as many times as the number of receiving antennas R. The information processing device 161 can generate a three-dimensional data group showing the distribution of the underground part in the entire field by connecting the multiple vertical section profiles in the Y direction. The three-dimensional data group can be modeled and visualized. The information processing device 161 can estimate the shape of the underground part based on the data group obtained by observation. The image generated based on the data group obtained by observation is called a radar image. The radar image includes, for example, a part or all of the shape of the underground part.

作業車両100が車両本体101の前部および後部に一対の地中レーダ装置を備える場合には、一方を他方に対し、アンテナユニット141の間隔の例えば半分の距離だけ作業車両の幅方向(図7Cに示すY方向)にシフトさせて配置してもよい。これにより、1個の地中レーダ装置を用いる場合に比べ、作業車両の幅方向に2倍の分解能で縦断面プロファイルのデータを取得することができる。高分解能で大量のデータを取得することは、後述するように、地中における地下部の位置または形状を推定すること、または、地下部の分布を示す精度の高い地下地図、または圃場マップを構築することに有益である。 When the work vehicle 100 is equipped with a pair of underground radar devices at the front and rear of the vehicle body 101, one may be shifted in the width direction of the work vehicle (Y direction shown in FIG. 7C) relative to the other by, for example, half the distance between the antenna units 141. This makes it possible to obtain longitudinal section profile data with twice the resolution in the width direction of the work vehicle compared to when a single underground radar device is used. Obtaining a large amount of data at high resolution is useful for estimating the position or shape of underground parts in the ground, or for constructing highly accurate underground maps or farm field maps showing the distribution of underground parts, as described below.

作業車両100が圃場の全体または一区画を走行し終えると、圃場の全体または一区画の地下部の分布に関する情報を含む3次元データ群が得られる。3次元データ群は、地中の深さ方向にXY平面に平行にスライスすることが可能である。3次元データ群を深さ方向にスライスすることで、所望の深さで2次元平面(水平断面)における地下部の分布情報が得られ、その分布情報に基づいて水平断面における地下部の水平断面プロファイルSnが得られる。情報処理装置161は、深さが異なる複数の水平断面プロファイルS0~Snに対応する複数のレーダ画像を合成することによって、深さ方向の合成レーダ画像を生成し得る。それぞれのレーダ画像は、それぞれの深さにおける根の形状を反映した根の分布情報を含む。 When the work vehicle 100 has completed traveling through the entire field or a section, a three-dimensional data set is obtained that includes information regarding the distribution of the underground parts of the entire field or a section. The three-dimensional data set can be sliced in the depth direction underground parallel to the XY plane. By slicing the three-dimensional data set in the depth direction, distribution information of the underground parts in a two-dimensional plane (horizontal cross section) at a desired depth is obtained, and a horizontal cross section profile Sn of the underground parts in the horizontal cross section is obtained based on the distribution information. The information processing device 161 can generate a composite radar image in the depth direction by combining multiple radar images corresponding to multiple horizontal cross section profiles S0 to Sn at different depths. Each radar image includes root distribution information that reflects the shape of the roots at the respective depths.

情報処理装置161は、観測して得られたデータ群を例えば空間解析手法を用いて、2次元または3次元空間に分布するデータ点の分布パターンを分析してもよい。データ点の分布はラスターデータとして表現されてもよいし、例えばカーネル法を用いて可視化してもよい。あるいは、情報処理装置161は、点分布の密度を算出し、それらを可視化した画像を生成してもよい。このようにして生成される画像も、前述したレーダ画像の一例である。 The information processing device 161 may analyze the distribution pattern of data points distributed in two-dimensional or three-dimensional space using, for example, a spatial analysis method for the data group obtained by observation. The distribution of the data points may be represented as raster data, or may be visualized using, for example, a kernel method. Alternatively, the information processing device 161 may calculate the density of the point distribution and generate an image that visualizes them. The image generated in this way is also an example of the radar image mentioned above.

[4.地上情報の取得]
次に、図10を参照して、作業車両100が圃場を走行しながら地上情報を取得する方法の例を説明する。図10に示す例では、ぶどう園を作業車両100が走行し、生育するぶどうの樹木列20の地上情報を取得する例を説明する。ただし、作業車両100は、ぶどう樹木に限定されず、任意の作物の地上情報を取得することが可能である。
[4. Acquisition of ground information]
Next, an example of a method for acquiring ground information while the work vehicle 100 travels through a farm field will be described with reference to Fig. 10. In the example shown in Fig. 10, the work vehicle 100 travels through a vineyard and acquires ground information of a row 20 of growing grape vines. However, the work vehicle 100 is not limited to grape vines and can acquire ground information of any crop.

図10に示すように、作業車両100が直進と旋回とを繰り返しながら、ぶどう園の樹木列20の間を手動運転または自動運転により走行している間、LiDARセンサ220が樹木列20の地上情報を取得する。 As shown in FIG. 10, while the work vehicle 100 is traveling manually or automatically between the rows of trees 20 in a vineyard, repeatedly moving straight ahead and turning, the LiDAR sensor 220 acquires ground information about the rows of trees 20.

作業車両100が、複数の樹木列20のうちのある樹木列に沿って走行するとき、図10に示す例では、作業車両100の側方に対向する樹木列20の左側部分の地上部(図10において点線の矩形LUの枠内の部分)が検出されるものの、樹木列20の左側部分と反対側の右側部分の地上部(図10において破線の矩形RUの枠内の部分)は検出されない。本明細書において、図面を参照して説明する右側および左側の用語が意味する左右方向は、ぶどう園を俯瞰した場合のワールド座標系から見る絶対方向であり、走行する作業車両100に固定された移動体座標系から見る相対方向ではない。 In the example shown in FIG. 10, when the work vehicle 100 travels along one of a number of tree rows 20, the above-ground parts of the left side of the tree row 20 facing the side of the work vehicle 100 (the part within the dotted rectangle LU in FIG. 10) are detected, but the above-ground parts of the right side of the tree row 20 opposite the left side (the part within the dashed rectangle RU in FIG. 10) are not detected. In this specification, the left and right directions referred to by the terms right and left as explained with reference to the drawings are absolute directions as seen from the world coordinate system when looking down on the vineyard, and are not relative directions as seen from the mobile body coordinate system fixed to the traveling work vehicle 100.

図10の例では、作業車両100がある樹木列の左側方を樹木列に沿って走行している間に、LiDARセンサ220がレーザバルスを出射し、出射されたレーザパルスの反射点の分布を示すセンサデータを取得し、さらに、当該センサデータに基づいて、樹木列20の左部分の地上部に関する地上情報を取得する。続いて、作業車両100が樹木列20の端点で旋回し、樹木列20の右部分を樹木列20に沿って走行している間、LiDARセンサ220がレーザバルスを出射し、出射されたレーザパルスの反射点の分布を示すセンサデータを取得し、さらに、当該センサデータに基づいて、樹木列20の右部分の地上部に関する地上情報を取得する。作業車両100が隣り合う樹木列20の間を走行する間、LiDARセンサ220は、隣り合う樹木列20の一方の右部分の地上部に関する地上情報、および隣り合う樹木列20の他方の左部分の地上部に関する地上情報を同時に取得することが可能である。言い換えると、LiDARセンサ220は、作業車両100の両側に位置する、第1測定範囲内にある樹木列20の地上部に関する地上情報を取得することが可能である。 In the example of FIG. 10, while the work vehicle 100 is traveling along the left side of a certain tree row, the LiDAR sensor 220 emits a laser pulse, acquires sensor data showing the distribution of reflection points of the emitted laser pulse, and further acquires ground information on the above-ground part of the left part of the tree row 20 based on the sensor data. Next, while the work vehicle 100 turns at the end point of the tree row 20 and travels along the right part of the tree row 20, the LiDAR sensor 220 emits a laser pulse, acquires sensor data showing the distribution of reflection points of the emitted laser pulse, and further acquires ground information on the above-ground part of the right part of the tree row 20 based on the sensor data. While the work vehicle 100 is traveling between adjacent tree rows 20, the LiDAR sensor 220 can simultaneously acquire ground information on the above-ground part of the right part of one of the adjacent tree rows 20 and ground information on the above-ground part of the left part of the other adjacent tree row 20. In other words, the LiDAR sensor 220 can obtain ground information about the above-ground parts of the tree rows 20 located within the first measurement range on both sides of the work vehicle 100.

このようにして、LiDARセンサ220は、複数の樹木列20の地上部に関する地上情報を樹木列ごとに取得し、直進および旋回を繰り返しながらぶどう園に存在する樹木列20全体の地上部に関する地上情報を取得する。作業車両100が樹木列20に沿って走行を行いながら、LiDARセンサ220が、実際に走行した走行経路Pに沿った樹木列20の地上情報を連続して取得することが可能である。 In this way, the LiDAR sensor 220 obtains ground information on the above-ground parts of multiple tree rows 20 for each tree row, and obtains ground information on the above-ground parts of all of the tree rows 20 in the vineyard by repeatedly traveling straight and turning. While the work vehicle 100 travels along the tree rows 20, the LiDAR sensor 220 can continuously obtain ground information on the tree rows 20 along the actual travel path P.

前述した例では、ぶどうの樹木列の地上部の全周に関する地上情報を取得する方法を説明したが、この方法は一例に過ぎず、樹木列の地上部の全周に関する地上情報の取得は必須でない。例えば、樹木列に含まれる少なくとも1本の樹木の地上部に関する地上情報が樹木単位で取得され得る。 In the above example, a method for acquiring ground information regarding the entire circumference of the above-ground parts of a row of grapevines was described, but this method is merely one example, and acquiring ground information regarding the entire circumference of the above-ground parts of a row of trees is not essential. For example, ground information regarding the above-ground parts of at least one tree included in the row of trees can be acquired on a tree-by-tree basis.

[5.点群データの取得および座標系変換]
図11は、5本の樹木列が存在するぶどう園を模式的に示す図である。図11には、5本の樹木列の地上部が図示されている。図11に示す例では、ぶどう園に5本の樹木列T1~T5が存在するが、当然に樹木列の本数はこれに限定されない。また、図11における5本の樹木列T1~T5の左部分をそれぞれ「左側方部」LU1~LU5、5本の樹木列20の右部分をそれぞれ「右側方部」RU1~RU5と呼ぶことにする。
[5. Acquisition of point cloud data and coordinate system transformation]
Fig. 11 is a schematic diagram of a vineyard in which there are five tree rows. Fig. 11 illustrates the above-ground parts of the five tree rows. In the example shown in Fig. 11, there are five tree rows T1 to T5 in the vineyard, but the number of tree rows is of course not limited to this. Furthermore, the left parts of the five tree rows T1 to T5 in Fig. 11 will be referred to as the "left side parts" LU1 to LU5, respectively, and the right parts of the five tree rows 20 will be referred to as the "right side parts" RU1 to RU5, respectively.

作業車両100は、開始点Sから進行し、樹木列T1の外側を走行しながら樹木列T1の地上部の左側方部LU1の点群データをLiDARセンサ220によって取得する。作業車両100は、樹木列T1の端点で旋回した後、隣接する樹木列T1とT2との間に進入し、樹木列T1の地上部の右側方部RU1、および樹木列T2の地上部の左側方部LU2の点群データをLiDARセンサ220によって取得する。作業車両100は、樹木列に沿った走行と旋回とを繰り返しながら終了点Gまで進行し、樹木列T3~T5の地上部の左側方部LU3~LU5の点群データ、および、樹木列T2~T4の地上部の右側方部RU2~RU4の点群データをLiDARセンサ220によって取得する。最後に、作業車両100は、樹木列T5の外側を走行しながら樹木列T5の地上部の右側方部RU5の点群データをLiDARセンサ220によって取得する。このようにして、LiDARセンサ220は、ぶどう園全体の樹木列T1~T5の地上部の点群データを取得する。 The work vehicle 100 proceeds from the starting point S, and while traveling on the outside of the tree row T1, acquires point cloud data of the left side portion LU1 of the ground part of the tree row T1 using the LiDAR sensor 220. After turning at the end point of the tree row T1, the work vehicle 100 enters between the adjacent tree rows T1 and T2, and acquires point cloud data of the right side portion RU1 of the ground part of the tree row T1 and the left side portion LU2 of the ground part of the tree row T2 using the LiDAR sensor 220. The work vehicle 100 proceeds to the end point G while repeatedly traveling along the tree rows and turning, and acquires point cloud data of the left side portions LU3 to LU5 of the ground part of the tree rows T3 to T5 and point cloud data of the right side portions RU2 to RU4 of the ground part of the tree rows T2 to T4 using the LiDAR sensor 220. Finally, the work vehicle 100, while traveling outside the tree row T5, acquires point cloud data of the right side portion RU5 of the above-ground portion of the tree row T5 using the LiDAR sensor 220. In this way, the LiDAR sensor 220 acquires point cloud data of the above-ground portions of the tree rows T1 to T5 throughout the entire vineyard.

情報処理装置161は、地上部の左側方部LU1~LU5、地上部の右側方部RU1~RU5のそれぞれについて取得した点群データを、各樹木列の地上部における側方単位として扱い、点群データに関する情報を側方単位で記憶装置に記憶し得る。本開示の実施形態では、作業車両100が備えるGNSSユニット110がIMU115を有し、作業車両100の樹木列に沿った走行と、旋回との間の動作差異を検知する。この検知によって、作業車両100が開始点Sから終了点Gまで走行する間にLiDARセンサ220によって連続的に取得された点群データを側方単位で識別することが可能である。 The information processing device 161 can treat the point cloud data acquired for each of the left side portions LU1-LU5 on the ground and the right side portions RU1-RU5 on the ground as lateral units in the above-ground portion of each tree row, and store information related to the point cloud data in lateral units in the storage device. In an embodiment of the present disclosure, the GNSS unit 110 equipped in the work vehicle 100 has an IMU 115 and detects the difference in operation between the work vehicle 100 traveling along the tree row and turning. This detection makes it possible to identify the point cloud data acquired continuously by the LiDAR sensor 220 while the work vehicle 100 travels from the start point S to the end point G in lateral units.

樹木列の地上部の左側方部LU1~LU5のそれぞれの点群データと、地上部の右側方部RU1~RU5のそれぞれの点群データとは、GNSSユニット110から出力される測位データを用いて区分することができる。例えば、作業車両100が、樹木列T1の地上部の左側方部LU1に沿って開始点Sから走行し、左側方部LU1の端部に到達した後、旋回することになる。情報処理装置161は、作業車両100の旋回によって作業車両100の進行方向が変化することを、GNSSユニット110から出力される測位データに基づいて検出し得る。情報処理装置161は、この検出結果に応じて、樹木列T1の地上部の左側方部LU1の一方の端部(開始点S)から他方の端部に作業車両100が到達したこと、および、左側方部LU1の他方の端部から右側方部RU1の端部に到達したことを認識できる。このように、作業車両100の進行方向の変化を利用して、情報処理装置161は、樹木列T1の左側方部LU1のセンシングから右側方部RU1のセンシングに移行したことを認識して、左側方部LU1の点群データと右側方部RU1の点群データとの区分を行い得る。これと同様に、樹木列T2~T5についても、情報処理装置161は、作業車両100の旋回ごとに、地上部の左側方部LU2~LU5の点群データと、地上部の右側方部RU2~RU5の点群データとの区分を行い得る。 The point cloud data of the left side portion LU1 to LU5 of the ground part of the tree row and the point cloud data of the right side portion RU1 to RU5 of the ground part can be distinguished using the positioning data output from the GNSS unit 110. For example, the work vehicle 100 runs from the start point S along the left side portion LU1 of the ground part of the tree row T1, and turns after reaching the end of the left side portion LU1. The information processing device 161 can detect that the direction of travel of the work vehicle 100 changes due to the turning of the work vehicle 100 based on the positioning data output from the GNSS unit 110. According to this detection result, the information processing device 161 can recognize that the work vehicle 100 has reached the end of the left side portion LU1 of the ground part of the tree row T1 from one end (starting point S) to the other end, and that it has reached the end of the right side portion RU1 from the other end of the left side portion LU1. In this way, by utilizing the change in the traveling direction of the work vehicle 100, the information processing device 161 can recognize that sensing has shifted from the left side portion LU1 of the tree row T1 to the right side portion RU1, and can separate the point cloud data of the left side portion LU1 from the point cloud data of the right side portion RU1. Similarly, for the tree rows T2 to T5, the information processing device 161 can separate the point cloud data of the left side portions LU2 to LU5 on the ground from the point cloud data of the right side portions RU2 to RU5 on the ground each time the work vehicle 100 turns.

本開示の実施形態における情報処理装置161は、区分けされた地上部の左側方部LU1~LU5、地上部の右側方部RU1~RU5のそれぞれの点群データに識別情報を付与して、区分けされた点群データを側方単位で識別する。識別情報については後述する。 The information processing device 161 in the embodiment of the present disclosure assigns identification information to the point cloud data of the divided left side portions LU1 to LU5 of the ground portion and the right side portions RU1 to RU5 of the ground portion, and identifies the divided point cloud data by side. The identification information will be described later.

本開示の実施形態において、点群データは、LiDARセンサ220に固定されたセンサ座標系で表現された各反射点の3次元座標(u1,v1,w1)の情報、または、各反射点までの距離およびその反射点の方向を示す情報を含むデータである。ただし、各反射点は例えば2次元座標系で表現され得る。樹木列の地上部の左側方部LU1~LU5、および、地上部の右側方部RU1~RU5のそれぞれの点群データは、ワールド座標系である3次元の座標系(X,Y,Z)で表すことが可能である。つまり、3次元座標(u1,v1,w1)における各反射点の座標を、3次元の座標系(X,Y,Z)における座標に変換することが可能である。例えば、樹木列T1の地上部の左側方部LU1の点群データは、GNSSユニット110から出力される測位データが示すワールド座標系における作業車両100の位置情報、および、LiDARセンサ220から出力される点群データが示す各反射点の座標情報に基づいて、3次元の座標系(X,Y,Z)で表すことが可能である。言い換えると、樹木列T1の地上部の左側方部LU1の点群データは、LiDARセンサ220が樹木列T1をセンシングしている間に作業車両100が通過する任意の地点の座標情報と、任意の地点から樹木列T1までの距離(厳密には、LiDARセンサ220から反射点までの距離)とに基づいて3次元の座標系(X,Y,Z)で表すことが可能である。同様に、地上部の左側方部LU2~LU5、および地上部の右側方部RU2~RU5のそれぞれの点群データも、3次元の座標系(X,Y,Z)で表すことが可能である。なお、例えば、開始点Sまたは終了点Gを3次元の座標系(X,Y,Z)の原点としてもよいし、他の位置を原点としてもよい。 In an embodiment of the present disclosure, the point cloud data is data including information on the three-dimensional coordinates (u1, v1, w1) of each reflection point expressed in a sensor coordinate system fixed to the LiDAR sensor 220, or information indicating the distance to each reflection point and the direction of the reflection point. However, each reflection point may be expressed, for example, in a two-dimensional coordinate system. The point cloud data of the left side portion LU1-LU5 of the ground part of the tree row and the right side portion RU1-RU5 of the ground part can be expressed in a three-dimensional coordinate system (X, Y, Z), which is the world coordinate system. In other words, the coordinates of each reflection point in the three-dimensional coordinates (u1, v1, w1) can be converted to coordinates in the three-dimensional coordinate system (X, Y, Z). For example, the point cloud data of the left side portion LU1 of the ground part of the tree row T1 can be expressed in a three-dimensional coordinate system (X, Y, Z) based on the position information of the work vehicle 100 in the world coordinate system indicated by the positioning data output from the GNSS unit 110 and the coordinate information of each reflection point indicated by the point cloud data output from the LiDAR sensor 220. In other words, the point cloud data of the left side portion LU1 of the ground part of the tree row T1 can be expressed in a three-dimensional coordinate system (X, Y, Z) based on the coordinate information of an arbitrary point through which the work vehicle 100 passes while the LiDAR sensor 220 is sensing the tree row T1 and the distance from the arbitrary point to the tree row T1 (strictly speaking, the distance from the LiDAR sensor 220 to the reflection point). Similarly, the point cloud data of the left side portions LU2 to LU5 of the ground part and the right side portions RU2 to RU5 of the ground part can also be expressed in a three-dimensional coordinate system (X, Y, Z). For example, the start point S or the end point G may be the origin of the three-dimensional coordinate system (X, Y, Z), or another position may be the origin.

[6.地上部の左および右側方部の点群データの関連付け]
続いて、情報処理装置161は、樹木列T1~T5の地上部の左側方部LU1~LU5、および右側方部RU1~RU5の、側方単位で区分けされた複数の点群データから、同一の樹木列を構成する地上部の左側方部および右側方部の点群データを抽出または同定する。例えば、情報処理装置161は、地上部の左側方部LU1~LU5の点群データと、地上部の右側方部RU1~RU5の点群データとを3次元の座標系(X,Y,Z)において参照し、複数の点群データの中から、最も近接する、もしくは類似するデータ群を含む点群データ同士、または、一致するデータ群を含む点群データ同士を関連付ける。言い換えると、情報処理装置161は、地上部の左側方部LU1~LU5のそれぞれの点群データに付与された複数の識別情報、および地上部の右側方部RU1~RU5のそれぞれの点群データに付与された複数の識別情報のうち、点群データが最も近接する、あるいは、一致するデータ群を含む点群データの識別情報を関連付ける。
[6. Association of point cloud data of left and right parts of ground]
Next, the information processing device 161 extracts or identifies point cloud data for the left and right lateral parts of the ground portion of the tree rows T1 to T5, which are divided by lateral unit, from a plurality of point cloud data for the left lateral parts LU1 to LU5 and the right lateral parts RU1 to RU5 of the ground portion of the tree rows T1 to T5. For example, the information processing device 161 refers to the point cloud data for the left lateral parts LU1 to LU5 of the ground portion and the point cloud data for the right lateral parts RU1 to RU5 of the ground portion in a three-dimensional coordinate system (X, Y, Z), and associates, from the plurality of point cloud data, point cloud data including the closest or similar data groups, or point cloud data including matching data groups. In other words, the information processing device 161 associates the identification information of the point cloud data that includes the closest or matching data group among the multiple identification information assigned to each of the point cloud data of the left side portion LU1 to LU5 of the ground portion and the multiple identification information assigned to each of the point cloud data of the right side portion RU1 to RU5 of the ground portion.

本開示の実施形態における情報処理装置161は、点群データ同士のマッチングを行うことによって、前述した複数の点群データの中から、最も近接する、あるいは最も類似するデータ群を含む点群データ同士を関連づける。マッチングは、例えばNDT(Normal Distribution Transform)またはICP(Iterative Closest Point)などの任意のマッチングアルゴリズムを用いて実行され得る。 The information processing device 161 in the embodiment of the present disclosure associates point cloud data including the closest or most similar data groups from among the multiple point cloud data described above by matching the point cloud data. The matching can be performed using any matching algorithm, such as NDT (Normal Distribution Transform) or ICP (Iterative Closest Point).

情報処理装置161は、関連付けられた2つの点群データのうち、3次元の座標系(X,Y,Z)において相対的に左側の空間に位置する点群データを、地上部の左側方部に関連する点群データと決定し、3次元の座標系において相対的に右側の空間に位置する点群データを、地上部の右側方部に関連する点群データと決定する。 Of the two associated point cloud data, the information processing device 161 determines that the point cloud data located in the relatively left space in the three-dimensional coordinate system (X, Y, Z) is the point cloud data related to the left side of the ground, and determines that the point cloud data located in the relatively right space in the three-dimensional coordinate system is the point cloud data related to the right side of the ground.

図12は、側方単位で区分けされた複数の点群データから、同一の樹木列を構成する地上部の左側方部および右側方部の点群データを関連付けた結果を示す図である。図12には、図11に示す樹木列T1~T5のそれぞれを構成する地上部の左側方部および右側方部の点群データを関連付けた結果が示されている。図12に示す例において、作業車両100が、図11に示す開始点Sから終了点Gまで移動したときに側方単位で取得された複数(10個)の点群データに、識別情報0001U~0010Uが付与されている。識別情報0001Uが付与された点群データが最初に取得されたデータであり、識別情報0010Uが付与された点群データが最後に取得された最新データである。 Figure 12 is a diagram showing the result of associating point cloud data for the left and right sides of the ground that make up the same tree row from multiple point cloud data divided by side units. Figure 12 shows the result of associating point cloud data for the left and right sides of the ground that make up each of the tree rows T1 to T5 shown in Figure 11. In the example shown in Figure 12, identification information 0001U to 0010U is assigned to multiple (10) point cloud data acquired by side units when the work vehicle 100 moves from the start point S to the end point G shown in Figure 11. The point cloud data assigned with identification information 0001U is the first acquired data, and the point cloud data assigned with identification information 0010U is the most recent data acquired last.

情報処理装置161は、識別情報0001U~0010Uが付与された点群データから、樹木列T1を構成する地上部の左側方部の点群データと、右側方部の点群データとを、マッチングにより関連付ける。図12に示す例では、情報処理装置161は、識別情報0001Uが付与された点群データと、識別情報0002Uが付与された点群データとが最も類似するデータ群であると決定する。言い換えると、情報処理装置161は、識別情報0001Uと識別情報0002Uとを関連付ける。そして、情報処理装置161は、関連付けられた2つの識別情報0001U、0002Uのそれぞれが付与された点群データの座標を参照し、3次元の座標系(X,Y,Z)において相対的に左側の空間に位置する、識別情報0001Uが付与された点群データを、地上部の左側方部LU1に関連する点群データと決定し、3次元の座標系において相対的に右側の空間に位置する、識別情報0002Uが付与された点群データを、地上部の右側方部RU1に関連する点群データと決定する。 The information processing device 161 associates, by matching, the point cloud data of the left side portion of the ground portion that constitutes the tree row T1 with the point cloud data of the right side portion from the point cloud data assigned with the identification information 0001U to 0010U. In the example shown in Figure 12, the information processing device 161 determines that the point cloud data assigned with the identification information 0001U and the point cloud data assigned with the identification information 0002U are the most similar data groups. In other words, the information processing device 161 associates the identification information 0001U with the identification information 0002U. Then, the information processing device 161 refers to the coordinates of the point cloud data assigned with the two associated identification information 0001U and 0002U, and determines that the point cloud data assigned with the identification information 0001U and located in the relatively left space in the three-dimensional coordinate system (X, Y, Z) is the point cloud data associated with the left side portion LU1 of the ground, and determines that the point cloud data assigned with the identification information 0002U and located in the relatively right space in the three-dimensional coordinate system is the point cloud data associated with the right side portion RU1 of the ground.

情報処理装置161は、樹木列T1と同様に、樹木列T2~T5のそれぞれを構成する地上部の左側方部の点群データと、右側方部の点群データとを、マッチングにより関連付ける。情報処理装置161は、3次元の座標系(X,Y,Z)において相対的に左側の空間に位置する、識別情報0003U、0005U、0007Uおよび0009Uが付与された点群データを、それぞれ、地上部の左側方部LU2~LU5に関連する点群データと決定し、3次元の座標系において相対的に右側の空間に位置する、識別情報0004U、0006U、0008Uおよび0010Uが付与された点群データを、それぞれ、地上部の右側方部RU2~RU5に関連する点群データと決定する。 The information processing device 161, like the tree row T1, associates the point cloud data of the left side portion of the ground portion constituting each of the tree rows T2 to T5 with the point cloud data of the right side portion by matching. The information processing device 161 determines the point cloud data assigned with identification information 0003U, 0005U, 0007U, and 0009U, which is located in a relatively left space in the three-dimensional coordinate system (X, Y, Z), as the point cloud data associated with the left side portion LU2 to LU5 of the ground portion, respectively, and determines the point cloud data assigned with identification information 0004U, 0006U, 0008U, and 0010U, which is located in a relatively right space in the three-dimensional coordinate system, as the point cloud data associated with the right side portion RU2 to RU5 of the ground portion, respectively.

[7.地上情報の生成]
情報処理装置161は、抽出された同一の樹木列を構成する地上部の左側方部の点群データと右側方部の点群データとから、地上情報を推定し得る。例えば、情報処理装置161は、樹木列T1の地上部の左側方部LU1の点群データと決定され、かつ、識別情報0001Uが付与された点群データ、および、当該樹木列と同一の樹木列T1の地上部の右側方部RU1の点群データと決定され、かつ、識別情報0002Uが付与された点群データの中から、最も近接する、あるいは一致するデータ群を含む1以上の点群データを抽出する。抽出した1以上の点群データを「共通地上部点群データ」と呼ぶ。
[7. Generation of Ground Information]
The information processing device 161 can estimate ground information from point cloud data of the left side portion and the right side portion of the ground portion constituting the same extracted tree row. For example, the information processing device 161 extracts one or more point cloud data including the closest or identical data group from point cloud data determined to be point cloud data of the left side portion LU1 of the ground portion of the tree row T1 and assigned with identification information 0001U, and point cloud data determined to be point cloud data of the right side portion RU1 of the ground portion of the same tree row T1 as the tree row and assigned with identification information 0002U. The extracted one or more point cloud data are called "common ground point cloud data".

情報処理装置161は、共通地上部点群データを基準とし、識別情報0001U、0002Uのそれぞれが付与された点群データを、同一の3次元の座標系(X,Y,Z)において表すことにより、当該樹木列の地上部に関する地上情報を推定し得る。そして、情報処理装置161は、識別情報0001U、0002Uが付与された2つの点群データを統合し、統合した点群データに地上部の識別情報U0001を付与する(図12参照)。識別情報U0001が付与された点群データは、樹木列T1の地上部に関する、形状、サイズまたは座標位置などの地上情報を示し得る。同様に、情報処理装置161は、識別情報0003U、0005U、0007Uおよび0009Uが付与された左側方部の点群データと、識別情報0004U、0006U、0008Uおよび0010Uが付与された右側方部の点群データとから、それぞれ、樹木列T2~T5の地上部に関する地上情報を推定し得る。 The information processing device 161 can estimate ground information related to the above-ground parts of the tree row by expressing the point cloud data to which the identification information 0001U and 0002U have been assigned in the same three-dimensional coordinate system (X, Y, Z) using the common above-ground part point cloud data as a reference. The information processing device 161 then integrates the two point cloud data to which the identification information 0001U and 0002U have been assigned, and assigns the identification information U0001 of the above-ground part to the integrated point cloud data (see FIG. 12). The point cloud data to which the identification information U0001 has been assigned can indicate ground information related to the above-ground parts of the tree row T1, such as shape, size, or coordinate position. Similarly, the information processing device 161 can estimate ground information about the above-ground parts of tree rows T2 to T5 from the point cloud data of the left side section assigned with identification information 0003U, 0005U, 0007U, and 0009U, and the point cloud data of the right side section assigned with identification information 0004U, 0006U, 0008U, and 0010U, respectively.

情報処理装置161は、例えば、樹木列ごとの地上情報と、各地上情報を示す点群データに含まれる反射点の、3次元の座標系における原点からの距離とを参照して、識別情報U0001~U0005を地上情報に付与し、樹木列ごとに区分けされた地上情報を識別してもよい。識別情報U0001~U0005のそれぞれと、各識別情報が付与された地上情報とが、記憶装置に記憶され得る。 The information processing device 161 may, for example, refer to the ground information for each tree row and the distance from the origin in a three-dimensional coordinate system of the reflection points included in the point cloud data indicating each piece of ground information, and assign identification information U0001 to U0005 to the ground information, thereby identifying the ground information divided for each tree row. Each of the identification information U0001 to U0005 and the ground information to which each identification information has been assigned may be stored in a storage device.

[8.地下情報の取得]
次に、図13を参照して、ぶどう園において作業車両を走行させ、生育するぶどう樹木の地下情報を取得する方法の例を説明する。図11に示すように、作業車両100が隣り合う樹木列の間を直進と旋回とを繰り返しながら、ぶどう園の樹木列の間を手動運転または自動運転により走行している間、地中レーダ装置140が樹木列の地下部に関する地下情報を取得する。
[8. Obtaining Underground Information]
Next, an example of a method for acquiring underground information of growing grape vines by running a work vehicle in a vineyard will be described with reference to Fig. 13. As shown in Fig. 11, while the work vehicle 100 is running manually or automatically between the rows of trees in the vineyard, repeating straight ahead and turning between adjacent rows of trees, the underground radar device 140 acquires underground information relating to the underground portions of the rows of trees.

作業車両100が、複数の樹木列のうちのある樹木列に沿って走行するとき、図13に示される例では、作業車両100の側方に対向する樹木列の地下部の左側方部(図13におい点線の矩形LDの枠内の部分)が探査されるものの、樹木列の左側部分と反対側の右側部分の地下部(図13におい点線の矩形RDの枠内の部分)は探査されない。 In the example shown in FIG. 13, when the work vehicle 100 travels along one of a number of tree rows, the left side of the underground portion of the tree row facing the side of the work vehicle 100 (the portion within the dotted rectangle LD in FIG. 13) is explored, but the underground portion of the right side of the tree row opposite the left side (the portion within the dotted rectangle RD in FIG. 13) is not explored.

図13の例では、作業車両100がある樹木列の左側方を樹木列に沿って走行している間に、地中レーダ装置140が電磁波を送受信することによってセンシングデータを繰り返し取得し、さらに、当該センシングデータに基づいて、樹木列の左側方部の地下情報を取得する。続いて、作業車両100が樹木列の端点で旋回し、樹木列の右側方を樹木列に沿って走行している間、地中レーダ装置140が電磁波を送受信することによってセンシングデータを繰り返し取得し、さらに、当該センシングデータに基づいて、樹木列の右側方部の地下情報を取得する。作業車両100が隣り合う樹木列の間を走行する間、地中レーダ装置140が、隣り合う樹木列の一方の右側方部の地下情報、および隣り合う樹木列の他方の左側方部の地下情報を同時に取得することが可能である。言い換えると、地中レーダ装置140は、作業車両100の両側に位置する、第2測定範囲内にある樹木列の地下部に関する地下情報を取得することが可能である。 In the example of FIG. 13, while the work vehicle 100 is traveling along the left side of a certain tree row, the underground radar device 140 repeatedly acquires sensing data by transmitting and receiving electromagnetic waves, and further acquires underground information of the left side of the tree row based on the sensing data. Next, while the work vehicle 100 turns at the end point of the tree row and travels along the right side of the tree row, the underground radar device 140 repeatedly acquires sensing data by transmitting and receiving electromagnetic waves, and further acquires underground information of the right side of the tree row based on the sensing data. While the work vehicle 100 is traveling between adjacent tree rows, the underground radar device 140 can simultaneously acquire underground information of the right side of one of the adjacent tree rows and underground information of the left side of the other adjacent tree row. In other words, the underground radar device 140 can acquire underground information regarding the underground parts of the tree rows located within the second measurement range on both sides of the work vehicle 100.

このようにして、地中レーダ装置140は樹木列全体の地下部に関する地下情報を樹木列ごとに取得し、直進および旋回を繰り返しながらぶどう園に存在する複数の樹木列の全体の地下部に関する地下情報を取得する。作業車両100は樹木列に沿って走行を行いながら、地中レーダ装置140が、走行経路Pに沿った複数の樹木列の地下情報を連続して取得することが可能である。 In this way, the underground radar device 140 obtains underground information for each tree row regarding the underground portions of the entire tree row, and obtains underground information for the entire underground portions of multiple tree rows in the vineyard while repeatedly traveling straight and turning. While the work vehicle 100 travels along the tree rows, the underground radar device 140 can continuously obtain underground information for multiple tree rows along the travel path P.

なお、前述した例では、ぶどうの樹木の地下部の全周の地下情報を取得する方法を説明したが、この方法は一例に過ぎず、地上情報と同様に、樹木列の地下部の全周に関する地下情報の取得は必須でない。例えば、樹木列に含まれる少なくとも1本の樹木の地下部に関する地下情報が樹木単位で取得され得る。 In the above example, a method for acquiring underground information about the entire circumference of the underground portion of a grapevine was described, but this method is merely one example, and like above-ground information, it is not essential to acquire underground information about the entire circumference of the underground portion of a tree row. For example, underground information about the underground portion of at least one tree included in a tree row can be acquired on a tree-by-tree basis.

[9.地中センシングデータの取得および座標系変換]
図14は、5本の樹木列が存在するぶどう園を模式的に示す図である。図14には、5本の樹木列の地下部が図示されている。図14に示す5本の樹木列T1~T5の地下部は、それぞれ、図11に示す5本の樹木列T1~T5の地上部に対応する。図14における5本の樹木列T1~T5の左部分をそれぞれ「左側方部」LD1~LD5、5本の樹木列20の右部分をそれぞれ「右側方部」RD1~RD5と呼ぶことにする。
[9. Acquisition of underground sensing data and coordinate system transformation]
Figure 14 is a schematic diagram of a vineyard with five tree rows. Figure 14 shows the underground portions of the five tree rows. The underground portions of the five tree rows T1 to T5 shown in Figure 14 correspond to the above-ground portions of the five tree rows T1 to T5 shown in Figure 11. The left portions of the five tree rows T1 to T5 in Figure 14 will be referred to as "left lateral portions" LD1 to LD5, respectively, and the right portions of the five tree rows 20 will be referred to as "right lateral portions" RD1 to RD5, respectively.

作業車両100は、開始点Sから進行し、樹木列T1の外側を走行しながら樹木列T1の地下部の左側方部LD1の空間分布に関する情報を含むセンシングデータ(以下、「地中センシングデータ」と記載する。)を地中レーダ装置140によって取得する。作業車両100は、樹木列T1の端点で旋回した後、隣接する樹木列T1とT2との間に進入し、樹木列T1の地下部の右側方部RD1および樹木列T2の地下部の左側方部LD2の地中センシングデータを地中レーダ装置140によって取得する。作業車両100は、樹木列に沿った走行と旋回とを繰り返しながら終了点Gまで進行し、樹木列T3~T5の地下部の左側方部LD3~LD5の地中センシングデータ、および、樹木列T2~T4の地下部の右側方部RD2~RD4の地中センシングデータを地中レーダ装置140によって取得する。最後に、作業車両100は、樹木列T5の外側を走行しながら樹木列T5の地下部の右側方部RD5の地中センシングデータを地中レーダ装置140によって取得する。このようにして、地中レーダ装置140は、ぶどう園全体の樹木列T1~T5の地下部の地中センシングデータを取得する。 The work vehicle 100 proceeds from the start point S, and while traveling outside the tree row T1, acquires sensing data (hereinafter referred to as "underground sensing data") including information on the spatial distribution of the left side LD1 of the underground part of the tree row T1 using the underground radar device 140. The work vehicle 100 turns at the end point of the tree row T1, then enters between the adjacent tree rows T1 and T2, and acquires underground sensing data of the right side RD1 of the underground part of the tree row T1 and the left side LD2 of the underground part of the tree row T2 using the underground radar device 140. The work vehicle 100 proceeds to the end point G while repeatedly traveling and turning along the tree rows, and acquires underground sensing data of the left side LD3-LD5 of the underground parts of the tree rows T3-T5 and the right side RD2-RD4 of the underground parts of the tree rows T2-T4 using the underground radar device 140. Finally, the work vehicle 100, while traveling outside the tree row T5, acquires underground sensing data of the right side portion RD5 of the underground portion of the tree row T5 using the underground radar device 140. In this way, the underground radar device 140 acquires underground sensing data of the underground portions of the tree rows T1 to T5 throughout the vineyard.

情報処理装置161は、地下部の左側方部LD1~LD5、地下部の右側方部RD1~RD5のそれぞれの地中センシングデータを、各樹木列の地下部における側方単位として扱い、センシングデータに関する情報を側方単位で記憶装置に記憶し得る。作業車両100が備えるGNSSユニット110がIMU115を有し、作業車両100の樹木列に沿った走行と、旋回との間の動作差異を検知する。この検知によって、作業車両100が開始点Sから終了点Gまで走行する間に地中レーダ装置140によって連続的に取得された地中センシングデータを側方単位で識別することが可能である。 The information processing device 161 can treat the underground sensing data of the left side portions LD1-LD5 and the right side portions RD1-RD5 of the underground portion as lateral units in the underground portion of each tree row, and store information related to the sensing data in a storage device in lateral units. The GNSS unit 110 equipped in the work vehicle 100 has an IMU 115 and detects the difference in operation between the work vehicle 100 traveling along the tree row and turning. This detection makes it possible to identify the underground sensing data continuously acquired by the underground radar device 140 while the work vehicle 100 travels from the start point S to the end point G in lateral units.

樹木列の地下部の左側方部LD1~LD5のそれぞれの地中センシングデータと、地下部の右側方部RD1~RD5のそれぞれの地中センシングデータとは、GNSSユニット110から出力される測位データを用いて区分することができる。例えば、作業車両100が開始点Sから樹木列T1の地下部の左側方部LD1に沿って走行し、左側方部LD1の端部に到達した後、旋回することになる。情報処理装置161は、作業車両100の旋回によって作業車両100の進行方向が変化することを、GNSSユニット110から出力される測位データに基づいて検出し得る。情報処理装置161は、この検出結果に応じて、樹木列T1の地下部の左側方部LD1の一方の端部(開始点S)から他方の端部に作業車両100が到達したこと、および、左側方部LD1の他方の端部から右側方部RD1の端部に達したことを認識できる。このように、作業車両100の進行方向の変化を利用して、情報処理装置161は、樹木列T1の左側方部LD1のセンシングから右側方部RD1のセンシングに移行したことを認識して、それぞれの地中センシングデータの区分を行い得る。これと同様に、樹木列T2~T5についても、情報処理装置161は、作業車両100の旋回ごとに、地下部の左側方部LD2~LD5の地中センシングデータと、地下部の右側方部RD2~RD5の地中センシングデータとの区分を行い得る。 The underground sensing data of each of the left side parts LD1 to LD5 of the underground part of the tree row and the underground sensing data of each of the right side parts RD1 to RD5 of the underground part can be distinguished using the positioning data output from the GNSS unit 110. For example, the work vehicle 100 travels along the left side part LD1 of the underground part of the tree row T1 from the starting point S, and turns after reaching the end of the left side part LD1. The information processing device 161 can detect that the direction of travel of the work vehicle 100 changes due to the turning of the work vehicle 100 based on the positioning data output from the GNSS unit 110. According to this detection result, the information processing device 161 can recognize that the work vehicle 100 has reached the other end of the left side part LD1 of the underground part of the tree row T1 from one end (starting point S) and the other end of the left side part LD1, and has reached the end of the right side part RD1 from the other end of the left side part LD1. In this way, by utilizing the change in the traveling direction of the work vehicle 100, the information processing device 161 can recognize that sensing has shifted from the left side LD1 of the tree row T1 to sensing the right side RD1, and can separate the respective underground sensing data. Similarly, for the tree rows T2 to T5, the information processing device 161 can separate the underground sensing data of the left side LD2 to LD5 of the underground part from the underground sensing data of the right side RD2 to RD5 of the underground part each time the work vehicle 100 turns.

本開示の実施形態における情報処理装置161は、地上部と同様に、区分けされた地下部の左側方部LD1~LD5、地下部の右側方部RD1~RD5のそれぞれの地中センシングデータに識別情報を付与して、区分けされた地中センシングデータを側方単位で識別する。 In an embodiment of the present disclosure, the information processing device 161 assigns identification information to the underground sensing data for each of the divided left side sections LD1 to LD5 and right side sections RD1 to RD5 of the underground section, in the same way as for the aboveground section, to identify the divided underground sensing data by side.

本開示の実施形態において、地中センシングデータは、地中における地下部の3次元空間の分布に関するデータ群であり、データ群の個々のデータ点までの距離およびそのデータ点の方向を示す情報を含み得る。データ群の個々のデータは、地中レーダ装置140に固定されたセンサ座標系である3次元座標(u2,v2,w2)の情報を含むデータであり得る。そのため、樹木列の地下部の左側方部LD1~LD5、および地下部の右側方部RD1~RD5のそれぞれの地中センシングデータは、点群データと同様に、ワールド座標系である3次元の座標系(X,Y,Z)で表すことが可能である。例えば、樹木列T1の地下部の左側方部LD1の地中センシングデータは、GNSSユニット110から出力される測位データが示すワールド座標系における作業車両100の位置情報、および、地中レーダ装置140から出力される地中センシングデータに含まれる各データ点の座標情報に基づいて、3次元の座標系(X,Y,Z)で表すことが可能である。言い換えると、樹木列T1の地下部の左側方部LD1の地中センシングデータは、地中レーダ装置140が樹木列T1をセンシングしている間に作業車両100が通過する任意の地点の座標情報と、任意の地点から樹木列T1までの距離(厳密には、地中レーダ装置140から各データ点までの距離)とに基づいて3次元の座標系(X,Y,Z)で表すことが可能である。同様に、地下部の左側方部LD2~LD5および地下部の右側方部RD2~RD5のそれぞれの地中センシングデータも、3次元の座標系(X,Y,Z)で表すことが可能である。なお、この3次元の座標系(X,Y,Z)の原点は、地下情報を示す地中センシングデータ群が存在する3次元の座標系の原点に一致する。 In an embodiment of the present disclosure, the underground sensing data is a data group related to the distribution of the three-dimensional space of the underground part in the ground, and may include information indicating the distance to each data point of the data group and the direction of the data point. Each data of the data group may be data including information on three-dimensional coordinates (u2, v2, w2) which are a sensor coordinate system fixed to the underground radar device 140. Therefore, the underground sensing data of the left side part LD1 to LD5 of the underground part of the tree row and the right side part RD1 to RD5 of the underground part can be expressed in a three-dimensional coordinate system (X, Y, Z) which is a world coordinate system, similar to the point cloud data. For example, the underground sensing data of the left side part LD1 of the underground part of the tree row T1 can be expressed in a three-dimensional coordinate system (X, Y, Z) based on the position information of the work vehicle 100 in the world coordinate system indicated by the positioning data output from the GNSS unit 110 and the coordinate information of each data point included in the underground sensing data output from the underground radar device 140. In other words, the underground sensing data of the left side LD1 of the underground part of the tree row T1 can be represented in a three-dimensional coordinate system (X, Y, Z) based on the coordinate information of any point that the work vehicle 100 passes while the underground radar device 140 is sensing the tree row T1 and the distance from the any point to the tree row T1 (strictly speaking, the distance from the underground radar device 140 to each data point). Similarly, the underground sensing data of the left side LD2 to LD5 of the underground part and the right side RD2 to RD5 of the underground part can also be represented in a three-dimensional coordinate system (X, Y, Z). Note that the origin of this three-dimensional coordinate system (X, Y, Z) coincides with the origin of the three-dimensional coordinate system in which the underground sensing data group indicating the underground information exists.

[10.地下部の左および右側方部の地中センシングデータの関連付け]
続いて、情報処理装置161は、樹木列T1~T5の地下部の左側方部LD1~LD5、および地下部の右側方部RD1~RD5の、側方単位で区分けされた複数の地中センシングデータから、同一の樹木列を構成する地下部の左側方部および右側方部のデータ群を抽出または同定する。例えば、情報処理装置161は、地下部の左側方部LD1~LD5の地中センシングデータ群と、地下部の右側方部RD1~RD5の地中センシングデータ群とを3次元の座標系(X,Y,Z)において参照し、複数のデータ群の中から、一部のデータが最も近接する、もしくは類似するデータ群同士、または、一致するデータ群同士を関連付ける。言い換えると、情報処理装置161は、地下部の左側方部LD1~LD5のそれぞれの地中センシングデータ群に付与された複数の識別情報、および地下部の右側方部RD1~RD5のそれぞれの地中センシングデータ群に付与された複数の識別情報のうち、地中センシングデータ群の一部が最も近接する、あるいは、一致するデータ群の識別情報を関連付ける。
[10. Association of underground sensing data from the left and right sides of the underground section]
Next, the information processing device 161 extracts or identifies data groups of the left and right underground sections constituting the same tree row from a plurality of underground sensing data of the left and right underground sections LD1-LD5 and RD1-RD5 of the tree rows T1-T5, which are divided by side. For example, the information processing device 161 refers to the underground sensing data group of the left underground section LD1-LD5 and the underground sensing data group of the right underground section RD1-RD5 in a three-dimensional coordinate system (X, Y, Z), and associates data groups with some data that are closest to each other or similar to each other, or data groups with matching data, from among the plurality of data groups. In other words, the information processing device 161 associates the identification information of the data group that is closest to or matches a part of the underground sensing data group among the multiple identification information assigned to each underground sensing data group of the left side portion LD1 to LD5 of the underground portion and the multiple identification information assigned to each underground sensing data group of the right side portion RD1 to RD5 of the underground portion.

情報処理装置161は、関連付けられた2つの地中センシングデータ群のうち、3次元の座標系において相対的に左側の空間に位置するデータ群を、地下部の左側方部に関するデータ群と決定し、3次元の座標系において相対的に右側の空間に位置するデータ群を、地下部の右側方部に関するデータ群と決定する。 The information processing device 161 determines, of the two associated underground sensing data groups, the data group located relatively to the left in the three-dimensional coordinate system as the data group relating to the left side of the underground area, and determines the data group located relatively to the right in the three-dimensional coordinate system as the data group relating to the right side of the underground area.

図15は、側方単位で区分けされた複数の地中センシングデータ群から、同一の樹木列を構成する地下部の左側方部および右側方部のデータ群を関連付けた結果を示す図である。図15には、図14に示す樹木列T1~T5のそれぞれを構成する地下部の左側方部および右側方部の地中センシングデータ群を関連付けた結果が示されている。図15に示す例において、作業車両100が、図14に示す開始点Sから終了点Gまで移動したときに側方単位で取得された複数(10個)の地中センシングデータ群に、識別情報0001D~0010Dが付与されている。識別情報0001Dが付与された地中センシングデータ群が最初に取得されたデータであり、識別情報0010Dが付与された地中センシングデータ群が最後に取得された最新データである。 Figure 15 is a diagram showing the result of associating data groups of the left and right sides of the underground parts that make up the same tree row from multiple underground sensing data groups divided by side. Figure 15 shows the result of associating underground sensing data groups of the left and right sides of the underground parts that make up each of the tree rows T1 to T5 shown in Figure 14. In the example shown in Figure 15, identification information 0001D to 0010D are assigned to multiple (10) underground sensing data groups acquired by side when the work vehicle 100 moves from the start point S to the end point G shown in Figure 14. The underground sensing data group assigned with identification information 0001D is the first data acquired, and the underground sensing data group assigned with identification information 0010D is the latest data acquired last.

情報処理装置161は、識別情報0001D~0010Dが付与された地中センシングデータ群から、樹木列T1を構成する地下部の左側方部のデータ群と、右側方部のデータ群とを、マッチングにより関連付ける。図15に示す例では、情報処理装置161は、識別情報0001Dが付与された地中センシングデータ群と、識別情報0002Dが付与された地中センシングデータ群とが最も類似するデータ群であると決定する。言い換えると、情報処理装置161は、識別情報0001Dと識別情報0002Dとを関連付ける。そして、情報処理装置161は、関連付けられた2つの識別情報0001D、0002Dのそれぞれが付与された地中センシングデータ群の座標を参照し、3次元の座標系(X,Y,Z)において相対的に左側の空間に位置する、識別情報0001Dが付与されたデータ群を、地下部の左側方部LD1に関連する地中センシングデータ群と決定し、3次元の座標系において相対的に右側の空間に位置する、識別情報0002Dが付与されたデータ群を、地下部の右側方部RD1に関連する地中センシングデータ群と決定する。 The information processing device 161 associates, by matching, a data group for the left side portion of the underground portion that constitutes the tree row T1 with a data group for the right side portion from among the underground sensing data groups that have been assigned identification information 0001D to 0010D. In the example shown in FIG. 15, the information processing device 161 determines that the underground sensing data group assigned identification information 0001D and the underground sensing data group assigned identification information 0002D are the most similar data groups. In other words, the information processing device 161 associates the identification information 0001D with the identification information 0002D. Then, the information processing device 161 refers to the coordinates of the underground sensing data groups assigned with the two associated identification information 0001D and 0002D, and determines that the data group assigned with the identification information 0001D and located in the relatively left space in the three-dimensional coordinate system (X, Y, Z) is the underground sensing data group associated with the left side portion LD1 of the underground section, and determines that the data group assigned with the identification information 0002D and located in the relatively right space in the three-dimensional coordinate system is the underground sensing data group associated with the right side portion RD1 of the underground section.

情報処理装置161は、樹木列T1と同様に、樹木列T2~T5のそれぞれを構成する地下部の左側方部のデータ群と、右側方部のデータ群とを、マッチングにより関連付ける。情報処理装置161は、3次元の座標系(X,Y,Z)において相対的に左側の空間に位置する、識別情報0003D、0005D、0007Dおよび0009Dが付与された点群データを、それぞれ、地下部の左側方部LD2~LUDに関連する地中センシングデータ群と決定し、3次元の座標系において相対的に右側の空間に位置する、識別情報0004D、0006D、0008Dおよび0010Dが付与されたデータ群を、それぞれ、地下部の右側方部RD2~RD5に関連する地中センシングデータ群と決定する。 The information processing device 161, like the tree row T1, associates the data groups of the left and right sides of the underground portions constituting each of the tree rows T2 to T5 by matching. The information processing device 161 determines the point cloud data assigned with identification information 0003D, 0005D, 0007D, and 0009D, which are located in the relatively left space in the three-dimensional coordinate system (X, Y, Z), as underground sensing data groups related to the left side portions LD2 to LUD of the underground portions, respectively, and determines the data groups assigned with identification information 0004D, 0006D, 0008D, and 0010D, which are located in the relatively right space in the three-dimensional coordinate system, as underground sensing data groups related to the right side portions RD2 to RD5 of the underground portions, respectively.

[11.地下情報の生成]
情報処理装置161は、抽出された同一の樹木列を構成する地下部の左側方部の地中センシングデータ群と右側方部の地中センシングデータ群とから、地下情報を推定し得る。例えば、情報処理装置161は、樹木列T1の地下部の左側方部LD1のデータ群と決定され、かつ、識別情報0001Dが付与された地中センシングデータ群、および、当該樹木列と同一の樹木列T1の地下部の右側方部RD1のデータ群と決定され、かつ、識別情報0002Dが付与された地中センシングデータ群の中から、一部のデータが最も近接する、あるいは一致する1以上のデータ群を抽出する。抽出した1以上のデータ群を「共通地下部データ群」と呼ぶ。
[11. Generation of underground information]
The information processing device 161 may estimate underground information from an underground sensing data group of the left side portion and an underground sensing data group of the right side portion constituting the extracted same tree row. For example, the information processing device 161 extracts one or more data groups whose part of the data is closest to or matches from an underground sensing data group determined to be a data group of the left side portion LD1 of the underground part of the tree row T1 and to which identification information 0001D is assigned, and an underground sensing data group determined to be a data group of the right side portion RD1 of the underground part of the same tree row T1 as the tree row and to which identification information 0002D is assigned. The extracted one or more data groups are called a "common underground data group".

情報処理装置161は、共通地下部データ群を基準とし、識別情報0001D、0002Dのそれぞれが付与されたデータ群を、同一の3次元の座標系(X,Y,Z)において表すことにより、当該樹木列の地下部に関する地下情報を推定し得る。そして、情報処理装置161は、識別情報0001D、0002Dが付与された2つの地中センシングデータ群を統合し、統合した地中センシングデータ群に地下部の識別情報D0001を付与する(図15参照)。識別情報D0001が付与された地中センシングデータ群は、樹木列T1の地下部に関する、形状、サイズまたは座標位置などの地下情報を示し得る。同様に、情報処理装置161は、識別情報0003D、0005D、0007Dおよび0009Dが付与された左側方部のデータ群と、識別情報0004D、0006D、0008Dおよび0010Dが付与された右側方部のデータ群とから、それぞれ、樹木列T2~T5の地下部に関する地下情報を推定し得る。 The information processing device 161 can estimate underground information about the underground part of the tree row by expressing the data groups each assigned with the identification information 0001D and 0002D in the same three-dimensional coordinate system (X, Y, Z) using the common underground data group as a reference. The information processing device 161 then integrates the two underground sensing data groups assigned with the identification information 0001D and 0002D, and assigns underground identification information D0001 to the integrated underground sensing data group (see FIG. 15). The underground sensing data group assigned with the identification information D0001 can indicate underground information about the underground part of the tree row T1, such as the shape, size, or coordinate position. Similarly, the information processing device 161 can estimate underground information about the underground portions of tree rows T2 to T5 from a group of data for the left side section assigned with identification information 0003D, 0005D, 0007D, and 0009D, and a group of data for the right side section assigned with identification information 0004D, 0006D, 0008D, and 0010D, respectively.

情報処理装置161は、例えば、樹木列ごとの地下情報と、各地下情報を示す地中センシングデータ群に含まれる各データ点の、3次元の座標系における原点からの距離とを参照して、識別情報D0001~D0005を地下情報に付与し、樹木列ごとに区分けされた地下情報を識別してもよい。識別情報D0001~D0005のそれぞれの識別情報と、各識別情報が付与された地下情報とが、記憶装置に記憶され得る。 The information processing device 161 may, for example, refer to the underground information for each tree row and the distance from the origin in a three-dimensional coordinate system of each data point included in the underground sensing data group indicating each piece of underground information, and assign identification information D0001 to D0005 to the underground information, thereby identifying the underground information divided for each tree row. Each of the identification information D0001 to D0005 and the underground information to which each identification information has been assigned may be stored in the storage device.

[12.地上情報と地下情報とを統合して作物情報を推定]
情報処理装置161は、複数の地上情報、および、複数の地下情報を参照し、作物情報を推定し得る。本開示の実施形態では、情報処理装置161は、複数の識別情報U0001~U0005が付与された点群データが示す複数の地上情報、および、識別情報D0001~D0005が付与された地中センシングデータが示す地下情報を参照し、作物の状態を推定する。以降の説明では、例えば、識別情報U0001が付与された点群データが示す地上情報を、識別情報U0001が付与された地上情報と呼ぶ。識別情報D0001が付与された地中センシングデータが示す地下情報を、識別情報D0001が付与された地下情報と呼ぶ。
[12. Integrating aboveground and belowground information to estimate crop information]
The information processing device 161 may estimate crop information by referring to a plurality of above-ground information and a plurality of underground information. In an embodiment of the present disclosure, the information processing device 161 estimates the state of the crop by referring to a plurality of above-ground information indicated by point cloud data to which a plurality of identification information U0001 to U0005 has been assigned, and underground information indicated by underground sensing data to which identification information D0001 to D0005 has been assigned. In the following description, for example, above-ground information indicated by point cloud data to which identification information U0001 has been assigned is referred to as above-ground information to which identification information U0001 has been assigned. Underground information indicated by underground sensing data to which identification information D0001 has been assigned is referred to as underground information to which identification information D0001 has been assigned.

情報処理装置161は、複数の地上情報のうち所定の地上情報に共通する所定の地下情報を抽出する。言い換えると、情報処理装置161は、複数の地上情報のうちの1つを示す点群データと、複数の地下情報のうちの1つを示す地中センシングデータとを関連付ける。 The information processing device 161 extracts specific underground information that is common to specific ground information from among the multiple pieces of ground information. In other words, the information processing device 161 associates point cloud data indicating one of the multiple pieces of ground information with underground sensing data indicating one of the multiple pieces of underground information.

前述した例において、識別情報U0001~U0005のそれぞれが付与された複数の地上情報のうちの、識別情報U0002が付与された地上情報が、所定の地上情報であるとする。この場合、情報処理装置161は、識別情報U0002が付与された地上情報に共通する地下情報を、識別情報D0001~D0006が付与された複数の地下情報の中から抽出する。具体的には、情報処理装置161は、識別情報U0002が付与された地上情報を示す点群データに最も近接する、または、一致する地中センシングデータ群を、識別情報D0001~D0005が付与された地下情報を示す地中センシングデータ群の中から検索する。 In the above-mentioned example, among the multiple pieces of ground information each having the identification information U0001 to U0005 assigned thereto, the ground information assigned with the identification information U0002 is assumed to be the specified ground information. In this case, the information processing device 161 extracts underground information common to the ground information assigned with the identification information U0002 from the multiple pieces of underground information each having the identification information D0001 to D0006 assigned thereto. Specifically, the information processing device 161 searches for an underground sensing data group that is closest to or matches the point cloud data indicating the ground information assigned with the identification information U0002 from among the underground sensing data groups indicating the underground information each having the identification information D0001 to D0005 assigned thereto.

情報処理装置161が、複数の地上情報のうち所定の地上情報に共通する所定の地下情報を抽出できないと判断した場合、所定の地下情報を抽出できないことを通知するためのメッセージを表示装置に表示させ得る。表示装置の例は、前述した操作端末200または端末装置400の画面である。このようなメッセージの表示により、例えば、システムのユーザにセンシングデータの再取得を促すことが可能となる。 When the information processing device 161 determines that it is unable to extract specific underground information common to specific ground information among multiple pieces of ground information, it may display a message on the display device to notify the user that the specific underground information cannot be extracted. An example of a display device is the screen of the operation terminal 200 or the terminal device 400 described above. By displaying such a message, it is possible to, for example, prompt the user of the system to reacquire sensing data.

複数の地上情報および複数の地下情報の中から、お互い共通する組み合わせを抽出する場合、すなわち、所定の地上情報に共通する所定の地下情報を抽出する場合、情報処理装置161は、地上情報を示す点群データに含まれる、地上部と地下部との境界またはその近辺に位置するデータ群と、地下情報を示す地中センシングデータに含まれる、地上部と地下部との境界またはその近辺に位置するデータ群とを3次元の座標系(X,Y,Z)において比較することで判断することが好ましい。 When extracting common combinations from multiple aboveground information and multiple underground information, i.e., when extracting specific underground information common to specific aboveground information, it is preferable that the information processing device 161 makes a judgment by comparing, in a three-dimensional coordinate system (X, Y, Z), a data group located at or near the boundary between aboveground and underground parts, which is included in the point cloud data representing the aboveground information, with a data group located at or near the boundary between aboveground and underground parts, which is included in the underground sensing data representing the underground information.

図16は、樹木の地下部700の一部である幹部710の断面を拡大して示す平面図である。樹木の幹部の断面の形状またはサイズは、樹木の個体ごとに異なる。樹木の幹部分は、地上部と地下部との境界において両者に共通する部分を含む。そのため、本開示の実施形態では、情報処理装置161は、地上部の幹部分と、地下部の幹部分との断面の形状またはサイズに着目して、複数の点群データのうちの1つの点群データに含まれる幹部のデータ群に最も近接する、あるいは一致する幹部のデータ群を含む地中センシングデータ群を、複数の地中センシングデータ群の中から検索する。 Figure 16 is a plan view showing an enlarged cross section of a trunk 710, which is part of the underground portion 700 of a tree. The cross-sectional shape or size of a tree trunk varies from individual tree to individual tree. The trunk portion of a tree includes a portion that is common to both above-ground and underground portions at the boundary between them. Therefore, in an embodiment of the present disclosure, the information processing device 161 focuses on the cross-sectional shape or size of the above-ground trunk portion and the underground trunk portion, and searches among multiple underground sensing data groups for an underground sensing data group that includes a trunk data group that is closest to or matches a trunk data group included in one of the multiple point cloud data.

図17は、図12に示す地上部に関する識別情報を記載したテーブルと、図15に示す地下部に関する識別情報を記載したテーブルとを統合して得られる、作物全体の識別情報を記載したテーブルを示す。本開示の実施形態における情報処理装置161は、図12に示すテーブルと、図15に示すテーブルとを参照し、同一の作物に関する地上および地下情報を関連付け、作物全体の識別情報を記載したテーブルを作成する。 Figure 17 shows a table listing identification information for the entire crop, obtained by integrating the table listing identification information for the above-ground parts shown in Figure 12 with the table listing identification information for the underground parts shown in Figure 15. The information processing device 161 in the embodiment of the present disclosure references the table shown in Figure 12 and the table shown in Figure 15, associates above-ground and below-ground information for the same crop, and creates a table listing identification information for the entire crop.

情報処理装置161は、地上情報U0001および地下情報D0001を関連付け、作物全体を識別するための作物識別情報UD001を樹木列T1に付与することができる。言い換えると、情報処理装置161は、属性が異なる地上部の点群データと地下部の地中センシングデータとを共通の座標系において統合することができる。樹木の幹部に関して、地上情報U0001が付与された点群データの一部のデータ群と、地下情報D0001が付与された地中センシングデータの一部のデータ群とが、3次元の座標系(X,Y,Z)において最も近接、類似、または一致し得る。この場合、情報処理装置161は、地上情報U0001に共通する所定の地下情報を地下情報D0001と決定し得る。同様に、情報処理装置161は、地上情報U0002~U0005と、地下情報D0002~D0005とをそれぞれ関連付け、作物識別情報UD002~UD005を樹木列T2~T5にそれぞれ付与することができる。情報処理装置161は、地上情報U0002~U0005に共通する所定の地下情報を地下情報D0002~D0005とそれぞれ決定し得る。 The information processing device 161 can associate the aboveground information U0001 and the underground information D0001, and assign crop identification information UD001 for identifying the entire crop to the tree row T1. In other words, the information processing device 161 can integrate the aboveground point cloud data and the underground sensing data, which have different attributes, in a common coordinate system. With respect to the trunk of a tree, a partial data group of the point cloud data to which the aboveground information U0001 has been assigned and a partial data group of the underground sensing data to which the underground information D0001 has been assigned may be closest, similar, or identical in a three-dimensional coordinate system (X, Y, Z). In this case, the information processing device 161 can determine that the predetermined underground information common to the aboveground information U0001 is the underground information D0001. Similarly, the information processing device 161 can associate the aboveground information U0002 to U0005 with the belowground information D0002 to D0005, respectively, and assign the crop identification information UD002 to UD005 to the tree rows T2 to T5, respectively. The information processing device 161 can determine that predetermined belowground information common to the aboveground information U0002 to U0005 is the belowground information D0002 to D0005, respectively.

情報処理装置161は、例えば樹木列T2に共通する組み合わせとして抽出した地上情報U0002と地下情報D0002とを紐づける。具体的には、情報処理装置161は、地上情報U0002と地下情報D0002とを、樹木列T2に関する複数の情報として紐づけることによって、作物識別情報UD002を新たに付与する。これによって、樹木列T2が他の樹木列と区別される。情報処理装置161は、ある樹木列に共通する地上および地下情報の組み合わせが樹木列T1~T5のどの樹木列に対応するかどうかを、例えば、3次元の座標系(X,Y,Z)における点群データまたは地中センシングデータの代表点(例えばデータ群の重心の位置)から原点までの距離に基づいて決定し得る。同様にして、情報処理装置161は、樹木列T1、T3~T5に共通する組み合わせとして抽出した地上情報U0001、U0003~U0005と地下情報D0001、D0003~D0005とを紐づけ、樹木列T1、T3~T5に作物識別情報UD001、UD003~UD005を付与する。情報処理装置161は、樹木列T1~T5の作物識別情報UD001~UD005のそれぞれと、各識別情報に含まれる地上および地下情報とを関連付け、記憶装置に記憶し得る。 The information processing device 161 links the aboveground information U0002 and the underground information D0002 extracted as a combination common to, for example, tree row T2. Specifically, the information processing device 161 assigns new crop identification information UD002 by linking the aboveground information U0002 and the underground information D0002 as multiple pieces of information related to tree row T2. This distinguishes tree row T2 from other tree rows. The information processing device 161 can determine which of tree rows T1 to T5 a combination of aboveground and underground information common to a certain tree row corresponds to, for example, based on the distance from a representative point of the point cloud data or underground sensing data (for example, the position of the center of gravity of the data group) to the origin in a three-dimensional coordinate system (X, Y, Z). Similarly, the information processing device 161 links the aboveground information U0001, U0003 to U0005 extracted as a combination common to the tree rows T1, T3 to T5 with the belowground information D0001, D0003 to D0005, and assigns the crop identification information UD001, UD003 to UD005 to the tree rows T1, T3 to T5. The information processing device 161 can associate each of the crop identification information UD001 to UD005 of the tree rows T1 to T5 with the aboveground and belowground information included in each identification information, and store it in the storage device.

本開示の実施形態における情報処理装置161は、関連付けられた地上情報および地下情報から、樹木列全体、また樹木列に含まれる1以上の樹木の形状またはサイズを推定し得る。関連付けられた地上情報および地下情報は、それぞれ、第1センサおよび第2センサによって検出された距離に基づいて得られたセンサデータである。情報処理装置161は、当該センサデータから、作物である樹木の形状またはサイズを推定する。例えば、情報処理装置161は、作物識別情報UD001~UD005のそれぞれに含まれる地上情報および地下情報の組み合わせのうち、作物識別情報UD002に含まれる地上情報U0002および地下情報D0002に基づいて、樹木列T2のサイズまたは形状を推定し得る。具体的に説明すると、情報処理装置161は、記憶装置にアクセスし、樹木列T2に関連付けられた地上情報U0002および地下情報D0002、すなわち、地上情報U0002を示す点群データ、および地下情報D0002を示す地中センシングデータの3次元の座標系(X,Y,Z)における座標情報に基づいて、樹木列T2のサイズまたは形状を推定することができる。 The information processing device 161 in an embodiment of the present disclosure may estimate the shape or size of the entire tree row, or one or more trees included in the tree row, from the associated above-ground information and below-ground information. The associated above-ground information and below-ground information are sensor data obtained based on distances detected by a first sensor and a second sensor, respectively. The information processing device 161 estimates the shape or size of the trees, which are crops, from the sensor data. For example, the information processing device 161 may estimate the size or shape of the tree row T2 based on above-ground information U0002 and below-ground information D0002 included in crop identification information UD002, out of the combinations of above-ground information and below-ground information included in each of the crop identification information UD001 to UD005. Specifically, the information processing device 161 can access the storage device and estimate the size or shape of the tree row T2 based on the ground information U0002 and underground information D0002 associated with the tree row T2, i.e., the point cloud data representing the ground information U0002 and the coordinate information in a three-dimensional coordinate system (X, Y, Z) of the underground sensing data representing the underground information D0002.

[13.樹木の形状、サイズの推定]
ある一態様において、情報処理装置161は、自動走行による走行時に第1センサ(例えばLiDARセンサ)が取得した地上情報と、自動走行による走行時に第2センサ(例えば地中レーダ装置)が取得した地下情報とに基づいて、作物の形状、サイズ、または生育状態を推定する。
[13. Estimation of tree shape and size]
In one aspect, the information processing device 161 estimates the shape, size, or growth condition of the crop based on ground information acquired by a first sensor (e.g., a LiDAR sensor) during autonomous driving and underground information acquired by a second sensor (e.g., an underground radar device) during autonomous driving.

図18および図19を参照して、樹木列に含まれる1つの樹木のサイズ、形状を推定する方法を説明する。 With reference to Figures 18 and 19, we will explain how to estimate the size and shape of a tree in a tree row.

図18は、樹木列T2の一部の形状を模式的に示す図である。図18には、10本の樹木を含む樹木列T2(図11参照)のうちの4本の樹木の部分が示されている。図19は、樹木列T2に含まれる1つの樹木T2aの外観を模式的に示す図である。情報処理装置161は、所定の樹木列に複数の樹木が含まれる場合、手動または自動で指定された複数の樹木のうちの1本の樹木を抽出し得る。例えば、樹木の指定は、ユーザが端末装置を操作することによって行われる。 Figure 18 is a diagram showing a schematic shape of a portion of tree row T2. Figure 18 shows a portion of four trees out of tree row T2 (see Figure 11) which includes ten trees. Figure 19 is a diagram showing a schematic appearance of one tree T2a included in tree row T2. When a given tree row includes multiple trees, the information processing device 161 can extract one tree out of multiple trees that have been manually or automatically specified. For example, the tree is specified by the user operating a terminal device.

本開示の実施形態では、情報処理装置161は、所定の樹木列T2を示す点群データを、3次元の座標系(X,Y,Z)で表される仮想的なフィールドに展開することによって、図18に示すような、地上部および地下部を含む樹木列T2の形状を把握することが可能である。情報処理装置161は、得られた樹木列T2の形状、および樹木列T2の形状を表すデータ群の座標に基づいて、樹木列T2に含まれる複数の樹木の中から少なくとも1本の樹木の形状を樹木単位で把握し得る。例えば、樹木T2aがユーザによって指定されると、図19に示すように、情報処理装置161は、地上部および地下部を含む、指定された樹木列T2の形状を樹木列T2の形状から抽出する。指定される樹木は、樹木列の端に位置する樹木であってもよいし、樹木列の端以外に位置する樹木であってもよい。情報処理装置161は、樹木T2aを表す形状から、実際の樹木T2aの例えばサイズ、形状を推定する。 In an embodiment of the present disclosure, the information processing device 161 can grasp the shape of the tree row T2 including the above-ground and underground parts as shown in FIG. 18 by expanding the point cloud data indicating a specific tree row T2 into a virtual field represented by a three-dimensional coordinate system (X, Y, Z). The information processing device 161 can grasp the shape of at least one tree from among the multiple trees included in the tree row T2 on a tree-by-tree basis based on the obtained shape of the tree row T2 and the coordinates of the data group representing the shape of the tree row T2. For example, when a tree T2a is specified by the user, as shown in FIG. 19, the information processing device 161 extracts the shape of the specified tree row T2 including the above-ground and underground parts from the shape of the tree row T2. The specified tree may be a tree located at the end of the tree row, or may be a tree located other than the end of the tree row. The information processing device 161 estimates, for example, the size and shape of the actual tree T2a from the shape representing the tree T2a.

本開示の実施形態によれば、属性が異なる点群データと地中センシングデータとを統合し、樹木列または樹木単位で樹木列または樹木のサイズや形状を推定することが可能となる。 According to an embodiment of the present disclosure, it is possible to integrate point cloud data with different attributes and underground sensing data, and estimate the size and shape of tree rows or trees on a tree-row or tree-by-tree basis.

<樹木の地上部のサイズの推定>
情報処理装置161は、例えば、樹木T2aの形状から樹木T2aの幹部の部分を認識し、幹部のサイズ(図19に示す高さH1および幅W1)を求めることができる。あるいは、情報処理装置161は、樹木T2aの形状から樹木T2aの樹冠部の部分を認識し、樹冠部のサイズ(図19に示す高さH2および幅W2)を求め得る。例えば、樹木T2aの幹部の高さH1は、3次元の座標系(X,Y,Z)における樹木T2aの地上部の点群データのうちのY方向において最も下方に位置する反射点(例えば地面に相当する部分)から、樹冠部の点群データのうちのY方向において最も下方に位置する枝部分の反射点までの距離によって規定され得る。樹木T2aの幹部の幅W1は、図19に示すXY平面の平行な幹部の断面の水平方向の距離によって規定され得る。なお、幹部の幅W1は、幹部の高さ方向(Y方向)における水平方向(X方向)の幅または距離を水平方向において複数抽出し、抽出したそれらの幅の平均を算出することによって求められ得る。あるいは、幹部の幅W1は、地面から所定の高さに位置する幹部の水平方向の幅であってもよい。
<Estimating the size of the above-ground part of a tree>
The information processing device 161 can, for example, recognize the trunk of the tree T2a from the shape of the tree T2a and obtain the size of the trunk (height H1 and width W1 shown in FIG. 19). Alternatively, the information processing device 161 can recognize the crown of the tree T2a from the shape of the tree T2a and obtain the size of the crown (height H2 and width W2 shown in FIG. 19). For example, the height H1 of the trunk of the tree T2a can be defined by the distance from the reflection point (e.g., the part corresponding to the ground) located at the lowest position in the Y direction in the point cloud data of the ground part of the tree T2a in a three-dimensional coordinate system (X, Y, Z) to the reflection point of the branch part located at the lowest position in the Y direction in the point cloud data of the crown. The width W1 of the trunk of the tree T2a can be defined by the horizontal distance of the parallel cross sections of the trunk on the XY plane shown in FIG. The width W1 of the trunk can be determined by extracting a plurality of horizontal (X direction) widths or distances in the height direction (Y direction) of the trunk in the horizontal direction and calculating the average of the extracted widths. Alternatively, the stem width W1 may be the horizontal width of the stem at a given height from the ground.

図19に示す樹冠部は、幹部の上に形成される枝および葉の層の部分に相当する。樹木T2aの樹冠部の高さH2は、例えば、3次元の座標系(X,Y,Z)における幹部の点群データのうちのY方向において最も上方に位置する反射点から、樹冠部の点群データのうちのY方向において最も上方に位置に位置する枝または葉の部分の反射点までの距離によって規定され得る。樹冠の幅W2は、樹冠部に含まれる枝または葉の部分の水平方向(X方向)の最大距離によって規定され得る。さらに、情報処理装置161は、樹木T2aの高さH4を、幹部の高さH1と樹冠部の高さH2とを加算することによって求めてもよく、地面から樹冠部の最高点までの距離として求めてもよい。 The crown shown in FIG. 19 corresponds to the layer of branches and leaves formed above the trunk. The height H2 of the crown of tree T2a can be determined, for example, by the distance from the reflection point located highest in the Y direction in the point cloud data of the trunk in a three-dimensional coordinate system (X, Y, Z) to the reflection point of the branch or leaf portion located highest in the Y direction in the point cloud data of the crown. The width W2 of the crown can be determined by the maximum distance in the horizontal direction (X direction) of the branch or leaf portion included in the crown. Furthermore, the information processing device 161 may determine the height H4 of tree T2a by adding the height H1 of the trunk and the height H2 of the crown, or may determine it as the distance from the ground to the highest point of the crown.

図19には、XY平面に平行な樹木T2aの断面における高さH1、H2、H4、幅W1およびW2が例示されているが、情報処理装置161は、YZ平面またはXZ平面に平行な樹木T2aの断面における幹部および/または樹冠部の高さ、幅を求めることが可能である。 Figure 19 illustrates the heights H1, H2, H4, and widths W1 and W2 of a cross section of tree T2a parallel to the XY plane, but the information processing device 161 is capable of determining the height and width of the trunk and/or crown of tree T2a in a cross section parallel to the YZ plane or XZ plane.

<樹木の地下部のサイズの推定>
情報処理装置161は、樹木T2aの地上部と同様に、樹木T2aの形状から樹木T2aの根の部分(または根系)を認識し、根の部分のサイズ(図19に示す深さH3および幅W3)を求め得る。例えば、樹木T2aの根の深さH3は、3次元の座標系(X,Y,Z)における地下部の地中センシングデータのうちの、地面に位置するデータ点から、Y方向において最も下方に位置する根の部分のデータ点までのY方向の距離によって規定され得る。根の幅W3は、地中での根の水平方向(X方向)における最大距離によって規定され得る。
<Estimating the size of the underground part of a tree>
The information processing device 161 can recognize the root portion (or root system) of the tree T2a from the shape of the tree T2a, as well as the above-ground part of the tree T2a, and can obtain the size of the root portion (depth H3 and width W3 shown in FIG. 19). For example, the root depth H3 of the tree T2a can be defined by the distance in the Y direction from a data point located on the ground to a data point of the root portion located lowest in the Y direction among the underground sensing data of the underground part in a three-dimensional coordinate system (X, Y, Z). The root width W3 can be defined by the maximum distance of the root in the horizontal direction (X direction) underground.

なお、ぶどう園の特性を考慮すると、樹木T2aの直下またはその付近の地面が傾斜していたり、凸凹であったりする場合がある。このため、樹木T2aの地上部の複数の点群データのうちの地面のデータ群に含まれる幾つかのデータの最小のY座標の平均を求めることによって、高さまたは深さの基準となる仮想的な地面の位置が推定されてもよい。 Considering the characteristics of a vineyard, the ground directly below or near the tree T2a may be inclined or uneven. For this reason, the position of the virtual ground that serves as the reference for height or depth may be estimated by finding the average of the minimum Y coordinates of some of the data included in the ground data group among the multiple point cloud data of the above-ground portion of the tree T2a.

樹木の幹部、樹冠部、および根の部分のそれぞれのサイズまたは形状の推定は、樹木単位または樹木列単位で実行され得る。例えば、樹木T2aの幹部、樹冠部、および根の部分のそれぞれのサイズは、作物識別情報UD002に関連する識別情報U0002が付与された点群データを、3次元の座標系(X,Y,Z)で表される圃場を示すフィールドに展開することによって得られる樹木T2aの形状から求まる特徴量に基づいて求めてもよいし、あるいは、樹木T2aの形状のパターンマッチングによって求めてもよい。なお、樹木の幹部、樹冠部、および根の部分のそれぞれのサイズまたは形状の推定方法は、本明細書において例示する方法に限定されない。また、情報処理装置161は、作物識別情報UD002に関連する識別情報U0002が付与された点群データおよび/または識別情報D0002が付与された地中センシングデータ群を、3次元の座標系(X,Y,Z)で表される圃場を示すフィールドに展開することによって得られる樹木T2aの形状から求まる特徴量に基づいて樹木T2aの生育状態を推定し得る。 The estimation of the size or shape of each of the trunk, crown, and root parts of a tree may be performed on a tree-by-tree or tree-row basis. For example, the size of each of the trunk, crown, and root parts of a tree T2a may be determined based on features obtained from the shape of the tree T2a obtained by expanding point cloud data to which identification information U0002 related to crop identification information UD002 is assigned into a field indicating a farm field represented by a three-dimensional coordinate system (X, Y, Z), or may be determined by pattern matching of the shape of the tree T2a. Note that the method of estimating the size or shape of each of the trunk, crown, and root parts of a tree is not limited to the method exemplified in this specification. Furthermore, the information processing device 161 can estimate the growth condition of the tree T2a based on features determined from the shape of the tree T2a obtained by expanding the point cloud data to which the identification information U0002 related to the crop identification information UD002 has been assigned and/or the group of underground sensing data to which the identification information D0002 has been assigned, into a field representing the farm field represented in a three-dimensional coordinate system (X, Y, Z).

このようにして、圃場の作物の地上部および地下部を検知し、地上部および地下部のそれぞれから得られる情報に基づいて作物の状態を推定することができる。とりわけ、地上情報だけでは作物の状態を把握することが困難であるような場合であっても、地下情報を加味することによって作物の状態を総合的に把握することが可能となる。 In this way, it is possible to detect the above-ground and underground parts of crops in a field and estimate the condition of the crops based on the information obtained from each of the above-ground and underground parts. In particular, even in cases where it is difficult to understand the condition of the crops from above-ground information alone, it is possible to comprehensively understand the condition of the crops by adding underground information.

[14.圃場マップの生成]
情報処理装置161は、地上情報と、地下情報とに基づいて、作物の形状を作成し、作成した作物の形状を、圃場を示すフィールドに展開することによって、走行経路(または目標経路)が設定される圃場マップを作成し得る。作成される作物の形状は、実際の作物の形状を再現したものに限定されず、作物の形状を模擬するもの、例えば作物の形状をデフォルメして得られる作物の概略的な形状であってもよい。
[14. Generation of farm field map]
The information processing device 161 can create a crop shape based on above-ground information and underground information, and can create a farm field map in which a travel route (or a target route) is set by expanding the created crop shape into a field showing the farm field. The created crop shape is not limited to a reproduction of an actual crop shape, and may be an imitation of the crop shape, for example, a rough shape of the crop obtained by deforming the crop shape.

情報処理装置161は、作物識別情報UD001~UD005にそれぞれ関連する地上部の複数の点群データを3次元の座標系(X,Y,Z)で表される仮想的なフィールドに展開することによって、樹木列T1~T5のそれぞれの形状を表す圃場マップを作成し得る。図20に、圃場マップの一例が示されている。図示される圃場マップは、3次元の座標系(X,Y,Z)における樹木列T1~T5の地上部の点群データの座標情報、相対距離、および方位などを反映している。さらに、圃場マップは、樹木列T1~T5の地下部の地中センシングデータ群の座標情報、相対距離、および方位などを反映し得る。 The information processing device 161 can create a field map showing the shape of each of the tree rows T1 to T5 by expanding a plurality of point cloud data of the aboveground parts associated with the crop identification information UD001 to UD005, respectively, onto a virtual field represented in a three-dimensional coordinate system (X, Y, Z). An example of a field map is shown in FIG. 20. The illustrated field map reflects the coordinate information, relative distance, orientation, etc. of the point cloud data of the aboveground parts of the tree rows T1 to T5 in the three-dimensional coordinate system (X, Y, Z). Furthermore, the field map can reflect the coordinate information, relative distance, orientation, etc. of the underground sensing data group of the underground parts of the tree rows T1 to T5.

情報処理装置161は、例えば、緯度および経度で表された作業車両100の位置(つまり、車体位置)と、少なくとも第1センサによって得られた、作業車両100から所定の作物までの距離とから、作物における緯度および経度を求め、作業車両100の走行時に推定された作物に基づいて作成した作物の形状と、作物における緯度および経度とを対応付けた位置情報付き圃場マップを作成し得る。例えば、情報処理装置161は、樹木列T1~T5の形状、および樹木列T1~T5の緯度・経度の位置情報を含む位置情報付き圃場マップを作成する。情報処理装置161は、作業車両100から樹木列T1~T5のそれぞれまでの距離と、GNSSユニット110によって検出された車体の位置情報とに基づいて、3次元座標(u2,v2,w2)における樹木列T1~T5の点群データの各データ点の座標を、3次元の座標系(X,Y,Z)における樹木列T1~T5の緯度・経度の位置情報に変換する。情報処理装置161は、変換した位置情報が示す位置に樹木列T1~T5の3次元の形状を配置することによって、3次元の位置情報付き圃場マップを作成し得る。なお、情報処理装置161は、樹木列T1~T5のそれぞれの2次元の形状を配置することによって、2次元の位置情報付き圃場マップを作成してもよい。 The information processing device 161 can, for example, determine the latitude and longitude of the crop from the position of the work vehicle 100 (i.e., the vehicle position) expressed in latitude and longitude and the distance from the work vehicle 100 to a specified crop obtained by at least the first sensor, and create a field map with position information that associates the shape of the crop created based on the crop estimated while the work vehicle 100 is traveling with the latitude and longitude of the crop. For example, the information processing device 161 creates a field map with position information that includes the shapes of the tree rows T1 to T5 and the latitude and longitude position information of the tree rows T1 to T5. The information processing device 161 converts the coordinates of each data point of the point cloud data of the tree rows T1 to T5 in three-dimensional coordinates (u2, v2, w2) into latitude and longitude position information of the tree rows T1 to T5 in a three-dimensional coordinate system (X, Y, Z) based on the distance from the work vehicle 100 to each of the tree rows T1 to T5 and the vehicle body position information detected by the GNSS unit 110. The information processing device 161 can create a three-dimensional field map with position information by arranging the three-dimensional shapes of the tree rows T1 to T5 at the positions indicated by the converted position information. The information processing device 161 may also create a two-dimensional field map with position information by arranging the two-dimensional shapes of the tree rows T1 to T5.

前述した位置情報付き圃場マップは作業車両100の自動走行に利用され得る。例えば、情報処理装置161または管理装置600が、作成された位置情報付き圃場マップ上に走行予定経路を事前に生成してもよい。 The above-mentioned field map with location information can be used for the automatic driving of the work vehicle 100. For example, the information processing device 161 or the management device 600 may generate a planned driving route in advance on the created field map with location information.

作業車両100は、作成した位置情報付き圃場マップを使用して圃場内を自動走行してもよい。具体的に説明すると、図4に示す経路生成用のECU185が位置情報付き圃場マップに基づき、予め定められた走行経路を意味する作業車両100の走行予定経路を決定する。走行予定経路は、位置情報付き圃場マップに基づいて自動でECU185によって決定されてもよいし、ユーザの操作によって設定されてもよい。 The work vehicle 100 may automatically travel within the field using the created field map with position information. Specifically, the route generation ECU 185 shown in FIG. 4 determines a planned travel route for the work vehicle 100, which means a predetermined travel route, based on the field map with position information. The planned travel route may be automatically determined by the ECU 185 based on the field map with position information, or may be set by a user operation.

図21は、位置情報付き圃場マップに基づいて生成される、樹木列の幹分布を模式的に示す図である。図21に例示される樹木列の2次元の幹分布において、各樹木の幹部が一定の大きさの円によって表現されている。このような2次元の幹分布を示すデータ群を「幹分布データ」と称する。幹分布データは、例えば個々の幹の中心の緯度・経度の位置情報を含み得る。幹分布データは、緯度・経度の位置情報に加えて、図19に示す幹部の幅W1の情報を含み得る。ユーザが操作端末を利用して、例えば、隣り合う樹木の幹部の間の距離または幹部の位置情報などの、複数の樹木列の配置関係を示す情報を入力してもよい。入力された情報は、記憶装置または他の記憶媒体に記録される。 Figure 21 is a diagram showing a schematic of the distribution of trunks in a row of trees, generated based on a field map with location information. In the two-dimensional distribution of trunks in the row of trees shown in Figure 21, the trunks of each tree are represented by circles of a certain size. A group of data showing such a two-dimensional distribution of trunks is called "stem distribution data". The trunk distribution data may include, for example, latitude and longitude position information of the center of each trunk. In addition to the latitude and longitude position information, the trunk distribution data may include information on the width W1 of the trunk shown in Figure 19. A user may use an operation terminal to input information showing the arrangement of multiple rows of trees, such as the distance between the trunks of adjacent trees or the position information of the trunks. The input information is recorded in a storage device or other storage medium.

図21には、幹分布データに基づいて決定される走行予定経路Pも示されている。例えば、経路生成用のECU185が、各樹木列に含まれる複数の樹木の幹部を繋いだ曲線を決定し得る。ECU185は、例えば、隣り合う2つの樹木列(例えば、樹木列T1およびT2)のそれぞれに含まれる複数の樹木の幹部を繋いだ曲線の中央を通る曲線または折れ線を走行予定経路として決定する。制御装置180(図4参照)が、GNSSユニットによって出力された位置情報が走行予定経路に一致するように操舵の制御を行うことができる。制御装置180は、隣り合う2つの樹木列の幹部曲線の中央に生成される走行予定経路を、作業車両100の車体中心が通過するように厳密に制御しなくてよい。走行予定経路は、隣り合う2つの樹木列の幹部曲線の中央からシフトしていてもよい。 21 also shows a planned travel route P determined based on the trunk distribution data. For example, the route generation ECU 185 may determine a curve connecting the trunks of multiple trees included in each tree row. The ECU 185 may determine, for example, a curve or broken line passing through the center of the curve connecting the trunks of multiple trees included in each of two adjacent tree rows (e.g., tree rows T1 and T2) as the planned travel route. The control device 180 (see FIG. 4) may control steering so that the position information output by the GNSS unit matches the planned travel route. The control device 180 does not need to strictly control the planned travel route generated in the center of the trunk curves of the two adjacent tree rows so that the center of the body of the work vehicle 100 passes through it. The planned travel route may be shifted from the center of the trunk curves of the two adjacent tree rows.

なお、簡単のため、2次元の幹分布データに基づく走行予定経路の生成方法を示したが、ECU185は、作成した位置情報付き圃場マップを用いて、樹木列に含まれる複数の樹木の幹部の点群データの各データ点の3次元の座標系(X,Y,Z)における座標に基づいて、走行予定経路を決定してもよい。 For simplicity, a method for generating a planned driving route based on two-dimensional trunk distribution data has been shown, but the ECU 185 may use the created farm field map with position information to determine a planned driving route based on the coordinates in a three-dimensional coordinate system (X, Y, Z) of each data point of the point cloud data of the trunks of multiple trees included in a tree row.

作業車両100は、幹分布データ、または圃場マップに基づき決定した走行予定経路に従って自動走行を行いながら、圃場内の任意の樹木列をセンシングしてもよい。作業車両100は、自動走行を行いながら、LiDARセンサ220が地上情報を取得し、さらに、地中レーダ装置140が地下情報を取得することによって、任意の樹木列を推定することが可能である。 The work vehicle 100 may sense any row of trees in the field while autonomously traveling along a planned route determined based on the stem distribution data or the field map. While autonomously traveling, the work vehicle 100 can estimate any row of trees by having the LiDAR sensor 220 acquire ground information and the underground radar device 140 acquire underground information.

本開示の実施形態によれば、取得した樹木情報を仮想的なフィールドに展開して圃場マップを作成することが可能となる。この圃場マップは、情報の見える化に貢献し得、さらに、作業車両の自動走行のための走行予定経路の生成に利用され得る。 According to an embodiment of the present disclosure, it is possible to create a field map by expanding the acquired tree information into a virtual field. This field map can contribute to the visualization of information and can also be used to generate planned driving routes for the automatic driving of work vehicles.

図22は、作物情報を推定するための推定方法の処理フローの概要を示すフローチャートである。本開示の実施形態における推定方法は、地上部の点群データおよび地下部の地中センシングデータを樹木列の側方単位で取得するステップS10と、点群データおよび地中センシングデータに識別情報を付与するステップS20と、作業車両が開始点から終了点までの走行を終了したか否かを判定するステップS30と、点群データおよび地中センシングデータに座標変換処理を適用するステップS40と、地上部の左および右側方部の点群データを関連付け、地上情報を生成するステップS50と、地下部の左および右側方部の地中センシングデータを関連付け、地下情報を生成するステップS60と、地上情報と地下情報とを統合して作物情報を推定するステップS70とを包含する。各ステップにおける処理の詳細は、前述したとおりである。 FIG. 22 is a flowchart showing an outline of the process flow of an estimation method for estimating crop information. The estimation method in the embodiment of the present disclosure includes step S10 of acquiring point cloud data of the aboveground part and underground sensing data of the underground part for each side of the tree row, step S20 of assigning identification information to the point cloud data and underground sensing data, step S30 of determining whether the work vehicle has completed traveling from the start point to the end point, step S40 of applying coordinate transformation processing to the point cloud data and underground sensing data, step S50 of associating point cloud data of the left and right sides of the aboveground part and generating aboveground information, step S60 of associating underground sensing data of the left and right sides of the underground part and generating underground information, and step S70 of integrating the aboveground information and underground information to estimate crop information. Details of the processing in each step are as described above.

作業車両100は、図22に示すフローに従って、圃場に存在する1または複数の樹木列の作物情報を樹木列単位で推定することが可能である。あるいは、作業車両100は、圃場に存在する1または複数の樹木列に含まれる複数の樹木のうちの着目する少なくとも1本以上の樹木の作物情報を推定することが可能である。1本の樹木の作物情報を推定する場合、例えば、作業車両のオペレータが樹木の左側方部および右側方部のセンシングデータの取得が完了したかどうかを決定してもよい。 The work vehicle 100 can estimate crop information for one or more tree rows in a field on a tree row basis by following the flow shown in FIG. 22. Alternatively, the work vehicle 100 can estimate crop information for at least one or more trees of interest among multiple trees included in one or more tree rows in a field. When estimating crop information for a single tree, for example, the operator of the work vehicle may determine whether acquisition of sensing data for the left and right sides of the tree has been completed.

ステップS50またはステップS60の処理において、例えば、左側方部に関連する右側方部のデータが存在しない場合など、情報処理装置161が、左および右側方部のデータを関連付けできないときは、左および右側方部のデータのいずれか一方のデータを検出できなかったことを示すエラーメッセージを例えば作業車両100の操作端末200の画面に表示させてもよい。 In the processing of step S50 or step S60, if the information processing device 161 cannot associate the data for the left and right sides, for example, if there is no data for the right side related to the left side, an error message indicating that either the data for the left or right side could not be detected may be displayed, for example, on the screen of the operation terminal 200 of the work vehicle 100.

[15.自動運転時の操舵制御]
以下、自動運転時の操舵制御の動作の例をより詳細に説明する。
[15. Steering control during automatic driving]
An example of the operation of steering control during automatic driving will be described in more detail below.

図23は、制御装置180によって実行される自動運転時の操舵制御の動作の例を示すフローチャートである。制御装置180は、作業車両100の走行中、図23に示すステップS121からS125の動作を実行することにより、自動操舵を行う。速度に関しては、例えば予め設定された速度に維持される。制御装置180は、作業車両100の走行中、情報処理装置161によって推定された作業車両100の位置を示すデータを取得する(ステップS121)。次に、制御装置180は、作業車両100の位置と、目標経路との位置偏差を算出する(ステップS122)。位置偏差は、その時点における作業車両100の位置と、目標経路との距離を表す。制御装置180は、算出した位置偏差が予め設定された閾値を超えるか否かを判定する(ステップS123)。位置偏差が閾値を超える場合、制御装置180は、位置偏差が小さくなるように、駆動装置240に含まれる操舵装置の制御パラメータを変更することにより、操舵角を変更する。ステップS123において位置偏差が閾値を超えない場合、ステップS124の動作は省略される。続くステップS125において、制御装置180は、動作終了の指令を受けたか否かを判定する。動作終了の指令は、例えばユーザが遠隔操作で自動運転の停止を指示したり、作業車両100が目的地に到達したりした場合に出され得る。動作終了の指令が出されていない場合、ステップS121に戻り、新たに推定された作業車両100の位置に基づいて、同様の動作を実行する。制御装置180は、動作終了の指令が出されるまで、ステップS121からS125の動作を繰り返す。上記の動作は、制御装置180におけるECU182、184によって実行される。 Figure 23 is a flowchart showing an example of the operation of steering control during automatic driving executed by the control device 180. The control device 180 performs automatic steering by executing the operations of steps S121 to S125 shown in Figure 23 while the work vehicle 100 is traveling. The speed is maintained at a preset speed, for example. The control device 180 acquires data indicating the position of the work vehicle 100 estimated by the information processing device 161 while the work vehicle 100 is traveling (step S121). Next, the control device 180 calculates the position deviation between the position of the work vehicle 100 and the target route (step S122). The position deviation represents the distance between the position of the work vehicle 100 at that time and the target route. The control device 180 determines whether the calculated position deviation exceeds a preset threshold value (step S123). If the position deviation exceeds the threshold value, the control device 180 changes the steering angle by changing the control parameters of the steering device included in the drive device 240 so that the position deviation is reduced. If the position deviation does not exceed the threshold in step S123, the operation of step S124 is omitted. In the following step S125, the control device 180 determines whether or not a command to end the operation has been received. The command to end the operation may be issued, for example, when a user remotely instructs the automatic driving to be stopped or when the work vehicle 100 reaches the destination. If the command to end the operation has not been issued, the process returns to step S121, and the same operation is performed based on the newly estimated position of the work vehicle 100. The control device 180 repeats the operations of steps S121 to S125 until a command to end the operation is issued. The above operations are executed by the ECUs 182 and 184 in the control device 180.

図23に示す例では、制御装置180は、情報処理装置161が推定した作業車両100の位置と目標経路との位置偏差のみに基づいて駆動装置240を制御するが、方位偏差もさらに考慮して制御してもよい。例えば、制御装置180は、情報処理装置161が推定した作業車両100の向き、あるいは、IMUを有するGNSSユニット110によって特定された作業車両100の向きと、目標経路の方向との角度差である方位偏差が予め設定された閾値を超える場合に、その偏差に応じて駆動装置240の操舵装置の制御パラメータ(例えば操舵角)を変更してもよい。 23, the control device 180 controls the drive device 240 based only on the position deviation between the position of the work vehicle 100 estimated by the information processing device 161 and the target route, but the control may also take into account the azimuth deviation. For example, when the azimuth deviation, which is the angular difference between the orientation of the work vehicle 100 estimated by the information processing device 161 or the orientation of the work vehicle 100 identified by the GNSS unit 110 having an IMU and the direction of the target route, exceeds a preset threshold, the control device 180 may change the control parameter (e.g., steering angle) of the steering device of the drive device 240 in accordance with the deviation.

以下、図24Aから図24Dを参照しながら、制御装置180による操舵制御の例をより具体的に説明する。 Below, an example of steering control by the control device 180 will be described in more detail with reference to Figures 24A to 24D.

図24Aは、目標経路Pに沿って走行する作業車両100の例を示す図である。図24Bは、目標経路Pから右にシフトした位置にある作業車両100の例を示す図である。図24Cは、目標経路Pから左にシフトした位置にある作業車両100の例を示す図である。図24Dは、目標経路Pに対して傾斜した方向を向いている作業車両100の例を示す図である。これらの図において、目標経路に沿って基準線が設定され、目標経路上に基準点が設定されている。例えば情報処理装置161によって推定された作業車両100の位置および向きを示すポーズが、r(x,y,θ)と表現されている。(x,y)は、ワールド座標系であるXY座標系における作業車両100の基準点の位置を表す座標である。図24Aから図24Dに示す例において、作業車両100の基準点はキャビン上のGNSSアンテナが設置された位置にあるが、この基準点の位置は任意である。θは、作業車両100の推定または計測された向きを表す角度である。図示されている例においては、目標経路PがY軸に平行であるが、一般的には目標経路PはY軸に平行であるとは限らない。 Figure 24A is a diagram showing an example of a work vehicle 100 traveling along a target route P. Figure 24B is a diagram showing an example of a work vehicle 100 in a position shifted to the right from the target route P. Figure 24C is a diagram showing an example of a work vehicle 100 in a position shifted to the left from the target route P. Figure 24D is a diagram showing an example of a work vehicle 100 facing in an inclined direction with respect to the target route P. In these figures, a reference line is set along the target route, and a reference point is set on the target route. For example, a pose indicating the position and orientation of the work vehicle 100 estimated by the information processing device 161 is expressed as r (x, y, θ). (x, y) are coordinates representing the position of the reference point of the work vehicle 100 in the XY coordinate system, which is a world coordinate system. In the examples shown in Figures 24A to 24D, the reference point of the work vehicle 100 is at the position where the GNSS antenna on the cabin is installed, but the position of this reference point is arbitrary. θ is an angle representing the estimated or measured orientation of the work vehicle 100. In the illustrated example, the target path P is parallel to the Y axis, but generally the target path P is not necessarily parallel to the Y axis.

図24Aに示すように、作業車両100の位置および向きが目標経路Pから外れていない場合には、制御装置180は、作業車両100の操舵角および速度を変更せずに維持する。 As shown in FIG. 24A, if the position and orientation of the work vehicle 100 do not deviate from the target path P, the control device 180 maintains the steering angle and speed of the work vehicle 100 unchanged.

図24Bに示すように、作業車両100の位置が目標経路Pから右側にシフトしている場合には、制御装置180は、作業車両100の走行方向が左寄りに傾き、目標経路Pに近付くように操舵角を変更する。このとき、操舵角に加えて速度も併せて変更してもよい。操舵角の大きさは、例えば位置偏差Δxの大きさに応じて調整され得る。 As shown in FIG. 24B, when the position of the work vehicle 100 shifts to the right from the target route P, the control device 180 changes the steering angle so that the travel direction of the work vehicle 100 tilts to the left and approaches the target route P. At this time, in addition to the steering angle, the speed may also be changed. The magnitude of the steering angle may be adjusted, for example, according to the magnitude of the position deviation Δx.

図24Cに示すように、作業車両100の位置が目標経路Pから左側にシフトしている場合には、制御装置180は、作業車両100の走行方向が右寄りに傾き、目標経路Pに近付くように操舵角を変更する。この場合も、操舵角に加えて速度も併せて変更してもよい。操舵角の変化量は、例えば位置偏差Δxの大きさに応じて調整され得る。 As shown in FIG. 24C, when the position of the work vehicle 100 shifts to the left from the target route P, the control device 180 changes the steering angle so that the travel direction of the work vehicle 100 tilts to the right and approaches the target route P. In this case, the speed may also be changed in addition to the steering angle. The amount of change in the steering angle may be adjusted, for example, according to the magnitude of the position deviation Δx.

図24Dに示すように、作業車両100の位置は目標経路Pから大きく外れていないが、向きが目標経路Pの方向とは異なる場合は、制御装置180は、方位偏差Δθが小さくなるように操舵角を変更する。この場合も、操舵角に加えて速度も併せて変更してもよい。操舵角の大きさは、例えば位置偏差Δxおよび方位偏差Δθのそれぞれの大きさに応じて調整され得る。例えば、位置偏差Δxの絶対値が小さいほど方位偏差Δθに応じた操舵角の変化量を大きくしてもよい。位置偏差Δxの絶対値が大きい場合には、目標経路Pに戻るために操舵角を大きく変化させることになるため、必然的に方位偏差Δθの絶対値が大きくなる。逆に、位置偏差Δxの絶対値が小さい場合には、方位偏差Δθをゼロに近づけることが必要である。このため、操舵角を決定するための方位偏差Δθの重み(すなわち制御ゲイン)を相対的に大きくすることが妥当である。 As shown in FIG. 24D, when the position of the work vehicle 100 is not far from the target route P but the direction is different from the direction of the target route P, the control device 180 changes the steering angle so that the azimuth deviation Δθ is reduced. In this case, the speed may also be changed in addition to the steering angle. The magnitude of the steering angle may be adjusted, for example, according to the magnitudes of the position deviation Δx and the azimuth deviation Δθ. For example, the smaller the absolute value of the position deviation Δx, the larger the amount of change in the steering angle according to the azimuth deviation Δθ may be. When the absolute value of the position deviation Δx is large, the steering angle is changed significantly to return to the target route P, so the absolute value of the azimuth deviation Δθ inevitably becomes large. Conversely, when the absolute value of the position deviation Δx is small, it is necessary to bring the azimuth deviation Δθ closer to zero. For this reason, it is appropriate to relatively increase the weight of the azimuth deviation Δθ (i.e., the control gain) for determining the steering angle.

作業車両100の操舵制御および速度制御には、PID制御またはMPC制御(モデル予測制御)などの制御技術が適用され得る。これらの制御技術を適用することにより、作業車両100を目標経路Pに近付ける制御を滑らかにすることができる。 Control techniques such as PID control or MPC control (model predictive control) can be applied to the steering control and speed control of the work vehicle 100. By applying these control techniques, it is possible to smooth the control that brings the work vehicle 100 closer to the target path P.

本明細書は、以下の項目に記載の解決手段を開示している。 This specification discloses the solutions described in the following items.

[項目1]
圃場の作物を検知する作物検知システムであって、
前記作物の地上部に関する情報である地上情報を検出する第1センサと、
前記作物の地下部に関する情報である地下情報を検出する第2センサと、
前記地上情報と、前記地下情報とに基づいて、前記作物の地上部と、前記作物の地下部とを合わせた作物を推定する情報処理装置と、
を備える作物検知システム。
[Item 1]
A crop detection system for detecting a crop in a field, comprising:
A first sensor for detecting ground information, which is information about an above-ground part of the crop;
A second sensor for detecting underground information, which is information about the underground part of the crop;
an information processing device that estimates a crop including an above-ground part of the crop and an underground part of the crop based on the above-ground information and the underground information;
A crop detection system comprising:

[項目2]
前記情報処理装置は、
前記第1センサが検出した複数の地上情報およびと、前記第2センサが検出した複数の地下情報とを参照し、前記複数の地上情報のうち所定の地上情報に共通する所定の地下情報を抽出し、
抽出した前記所定の地中情報と、前記所定の地上情報とを関連付け、
関連付けられた前記所定の地上情報および前記所定の地下情報から、前記作物を推定する、項目1に記載の作物検知システム。
[Item 2]
The information processing device includes:
By referring to the plurality of pieces of ground information detected by the first sensor and the plurality of pieces of underground information detected by the second sensor, predetermined underground information common to predetermined pieces of ground information is extracted from the plurality of pieces of ground information;
Associating the extracted predetermined underground information with the predetermined ground information;
2. The crop detection system of claim 1, wherein the crop is estimated from the predetermined above-ground information and the predetermined underground information associated with each other.

[項目3]
前記関連付けられた所定の地上情報および前記所定の地下情報は、それぞれ、前記第1センサおよび前記第2センサによって検出された距離から得られたセンシングデータであり、
前記情報処理装置は、前記センシングデータから、前記作物の寸法を推定する、項目2に記載の作物検知システム。
[Item 3]
The associated predetermined ground information and the associated predetermined underground information are sensing data obtained from distances detected by the first sensor and the second sensor, respectively;
3. The crop detection system according to claim 2, wherein the information processing device estimates a size of the crop from the sensing data.

[項目4]
前記情報処理装置は、前記地上情報と前記地下情報とに基づいて、前記作物の形状を作成し、作成した前記作物の形状を、前記圃場を示すフィールドに展開することによって、圃場マップを作成する、項目2または3に記載の作物検知システム。
[Item 4]
4. The crop detection system according to claim 2, wherein the information processing device creates a shape of the crop based on the above-ground information and the underground information, and creates a field map by expanding the created shape of the crop into a field representing the field.

[項目5]
前記第1センサおよび第2センサは、単一の農業機械に搭載される、あるいは複数の農業機械に別個搭載される、項目1から4のいずれか1項に記載の作物検知システム。
[Item 5]
5. The crop detection system according to any one of claims 1 to 4, wherein the first sensor and the second sensor are mounted on a single agricultural machine or separately on multiple agricultural machines.

[項目6]
前記第1センサは、農業機械の周辺に設定された測定範囲に存在する前記作物の地上部までの距離を前記地上情報として検出する測距センサ、または、前記測定範囲に存在する前記作物の地上部の画像を前記地上情報として検出するカメラであり、
前記第2センサは、前記測定範囲に存在する前記作物の地下部までの距離を前記地下情報として検出する測距センサである、項目1から3のいずれか1項に記載の作物検知システム。
[Item 6]
the first sensor is a distance measuring sensor that detects a distance to an above-ground part of the crop present in a measurement range set around the agricultural machine as the ground information, or a camera that detects an image of the above-ground part of the crop present in the measurement range as the ground information,
4. The crop detection system according to any one of claims 1 to 3, wherein the second sensor is a distance measuring sensor that detects the distance to the underground part of the crop present in the measurement range as the underground information.

[項目7]
前記第1センサにおける前記測距センサは、レーザパルスを射出することで、前記測定範囲に存在する前記作物の地上部までの距離を検出するLiDARセンサである、項目6に記載の作物検知システム。
[Item 7]
7. The crop detection system of item 6, wherein the distance measurement sensor in the first sensor is a LiDAR sensor that detects the distance to the above-ground part of the crop present in the measurement range by emitting a laser pulse.

[項目8]
前記第2センサは、電磁波を送信することで、前記測定範囲に存在する前記作物の地下部までの距離を検出する地中レーダ装置である、項目6または7に記載の作物検知システム。
[Item 8]
8. The crop detection system according to claim 6, wherein the second sensor is a ground penetrating radar device that detects the distance to an underground portion of the crop present in the measurement range by transmitting electromagnetic waves.

[項目9]
前記農業機械は、
前記農業機械の位置である車体位置を出力する測位ユニットと、
予め定められた走行経路に前記測位ユニットによって出力された前記位置が一致するように操舵の制御を行う制御装置と、
を備える、項目6から8のいずれか1項に記載の作物検知システム。
[Item 9]
The agricultural machine includes:
a positioning unit that outputs a vehicle body position that is the position of the agricultural machine;
a control device that controls steering so that the position output by the positioning unit coincides with a predetermined travel route;
9. The crop detection system according to any one of claims 6 to 8, comprising:

[項目10]
前記情報処理装置は、前記地上情報と、前記地下情報とに基づいて、前記作物の形状を作成し、作成した前記作物の形状を、前記圃場を示すフィールドに展開することによって、前記走行経路が設定される圃場マップを作成する、項目9に記載の作物検知システム。
[Item 10]
10. The crop detection system according to item 9, wherein the information processing device creates a shape of the crop based on the above-ground information and the underground information, and creates a field map on which the travel route is set by expanding the created shape of the crop into a field representing the field.

[項目11]
前記農業機械は、自動走行を制御する制御装置を備え、
前記情報処理装置は、前記自動走行による走行時に前記第1センサが取得した前記地上情報と、前記自動走行による走行時に前記第2センサが取得した前記地下情報とに基づいて、前記作物を推定する、項目6から10のいずれか1項に記載の作物検知システム。
[Item 11]
The agricultural machine includes a control device for controlling automatic traveling,
11. The crop detection system according to any one of claims 6 to 10, wherein the information processing device estimates the crop based on the ground information acquired by the first sensor during the autonomous driving and the underground information acquired by the second sensor during the autonomous driving.

[項目12]
前記農業機械は、前記農業機械の位置である車体位置を出力する測位ユニットを備え、
前記情報処理装置は、
緯度および経度で表された前記車体位置と、少なくとも前記第1センサによって得られた、前記農業機械から前記所定の作物までの距離とから、前記作物における緯度および経度を求め、前記農業機械の走行時に推定された前記作物に基づいて作成した前記作物の形状と、前記作物における緯度および経度とを対応付けた圃場マップを作成する、項目2または3に記載の作物検知システム。
[Item 12]
The agricultural machine includes a positioning unit that outputs a vehicle body position, which is a position of the agricultural machine,
The information processing device includes:
4. The crop detection system according to item 2 or 3, wherein the latitude and longitude of the crop are calculated from the vehicle position expressed in latitude and longitude and the distance from the agricultural machine to the specified crop obtained by at least the first sensor, and a field map is created in which the shape of the crop, which is created based on the crop estimated while the agricultural machine is traveling, corresponds to the latitude and longitude of the crop.

[項目13]
表示装置をさらに備え、
前記情報処理装置が、前記複数の地上情報のうち所定の地上情報に共通する前記所定の地下情報を抽出できないと判断した場合、前記所定の地下情報を抽出できないことを通知するためのメッセージを前記表示装置に表示させる、項目2に記載の作物検知システム。
[Item 13]
Further comprising a display device,
The crop detection system described in item 2, wherein when the information processing device determines that it is unable to extract the specified underground information that is common to a specified piece of ground information among the multiple pieces of ground information, it displays a message on the display device to notify the user that the specified underground information cannot be extracted.

[項目14]
前記地中レーダ装置は、前記農業機械の前部に設けられ、
前記農業機械の後部に設けられた他の地中レーダ装置をさらに備える、項目1から13のいずれか1項に記載の作物検知システム。
[Item 14]
the ground penetrating radar device is provided at a front portion of the agricultural machine,
Item 14. The crop detection system of any one of items 1 to 13, further comprising another ground penetrating radar device provided at a rear of the agricultural machine.

[項目15]
項目1から14のいずれか1項目に記載の作物検知システムと、
農業機械を走行させる駆動装置と、
を備える農業機械。
[Item 15]
A crop detection system according to any one of claims 1 to 14,
A drive device for driving the agricultural machine;
Agricultural machinery equipped with

[項目16]
前記地面に対して対地作業を行う作業機を備え、
前記地中レーダ装置は前記作業機に取り付けられている、項目15に記載の農業機械。
[Item 16]
A work machine for performing ground work on the ground is provided,
Item 16. The agricultural machine according to item 15, wherein the ground penetrating radar device is attached to the work machine.

本開示の技術は、例えばトラクタ、収穫機、田植機、乗用管理機、野菜移植機、草刈機、播種機、施肥機、または農業用ロボットなどの農業機械の操作に適用することができる。 The technology disclosed herein can be applied to the operation of agricultural machinery such as tractors, harvesters, rice transplanters, riding tillers, vegetable transplanters, grass cutters, seed sowing machines, fertilizer applicators, or agricultural robots.

50・・・GNSS衛星、60・・・基準局、80・・・ネットワーク、100・・・作業車両、101・・・車両本体、102・・・原動機(エンジン)、103・・・変速装置(トランスミッション)、104・・・車輪、105・・・キャビン、106・・・操舵装置、107・・・運転席、108・・・連結装置、110・・・測位装置、111・・・GNSS受信機、112・・・RTK受信機、115・・・慣性計測装置(IMU)、116・・・処理回路、120・・・カメラ、130・・・障害物センサ、140・・・地中レーダ装置、141・・・アンテナユニット、150・・・センサ群、152・・・ステアリングホイールセンサ、154・・・切れ角センサ、156・・・回転センサ、160・・・制御システム、161・・・処理装置、170・・・記憶装置、180・・・制御装置、181~185・・・ECU、190・・・通信装置、200・・・操作端末、210・・・操作スイッチ群、220・・・LiDARセンサ、240・・・駆動装置、250・・・受信機、300・・・作業機、340・・・駆動装置、380・・・制御装置、390・・・通信装置、400・・・端末装置、600・・・管理装置 50: GNSS satellite, 60: reference station, 80: network, 100: work vehicle, 101: vehicle body, 102: engine, 103: transmission, 104: wheels, 105: cabin, 106: steering device, 107: driver's seat, 108: coupling device, 110: positioning device, 111: GNSS receiver, 112: RTK receiver, 115: inertial measurement unit (IMU), 116: processing circuit, 120: camera, 130: obstacle sensor, 140: underground radar device, 141: antenna na unit, 150...sensor group, 152...steering wheel sensor, 154...turning angle sensor, 156...rotation sensor, 160...control system, 161...processing device, 170...storage device, 180...control device, 181-185...ECU, 190...communication device, 200...operation terminal, 210...operation switch group, 220...LiDAR sensor, 240...driving device, 250...receiver, 300...work machine, 340...driving device, 380...control device, 390...communication device, 400...terminal device, 600...management device

Claims (12)

圃場の作物を検知する作物検知システムであって、
前記作物の地上部に関する情報である地上情報を検出する第1センサと、
前記作物の地下部に関する情報である地下情報を検出する第2センサと、
前記地上情報と、前記地下情報とに基づいて、前記作物の地上部と、前記作物の地下部とを合わせた作物を推定する情報処理装置と、
を備える作物検知システム。
A crop detection system for detecting a crop in a field, comprising:
A first sensor for detecting ground information, which is information about an above-ground part of the crop;
A second sensor for detecting underground information, which is information about the underground part of the crop;
an information processing device that estimates a crop including an above-ground part of the crop and an underground part of the crop based on the above-ground information and the underground information;
A crop detection system comprising:
前記情報処理装置は、
前記第1センサが検出した複数の地上情報およびと、前記第2センサが検出した複数の地下情報とを参照し、前記複数の地上情報のうち所定の地上情報に共通する所定の地下情報を抽出し、
抽出した前記所定の地中情報と、前記所定の地上情報とを関連付け、
関連付けられた前記所定の地上情報および前記所定の地下情報から、前記作物を推定する、請求項1に記載の作物検知システム。
The information processing device includes:
By referring to the plurality of pieces of ground information detected by the first sensor and the plurality of pieces of underground information detected by the second sensor, predetermined underground information common to predetermined pieces of ground information is extracted from the plurality of pieces of ground information;
Associating the extracted predetermined underground information with the predetermined ground information;
The crop detection system of claim 1 , wherein the crop is estimated from the predetermined above-ground information and the predetermined below-ground information associated with each other.
前記関連付けられた所定の地上情報および前記所定の地下情報は、それぞれ、前記第1センサおよび前記第2センサによって検出された距離から得られたセンシングデータであり、
前記情報処理装置は、前記センシングデータから、前記作物の寸法を推定する、請求項2に記載の作物検知システム。
The associated predetermined ground information and the associated predetermined underground information are sensing data obtained from distances detected by the first sensor and the second sensor, respectively;
The crop detection system according to claim 2 , wherein the information processing device estimates a size of the crop from the sensing data.
前記情報処理装置は、前記地上情報と前記地下情報とに基づいて、前記作物の形状を作成し、作成した前記作物の形状を、前記圃場を示すフィールドに展開することによって、圃場マップを作成する、請求項2または3に記載の作物検知システム。 The crop detection system according to claim 2 or 3, wherein the information processing device creates a shape of the crop based on the aboveground information and the underground information, and creates a field map by expanding the created shape of the crop into a field representing the field. 前記第1センサおよび第2センサは、単一の農業機械に搭載される、あるいは複数の農業機械に別個搭載される、請求項1または2に記載の作物検知システム。 The crop detection system according to claim 1 or 2, wherein the first sensor and the second sensor are mounted on a single agricultural machine or separately mounted on multiple agricultural machines. 前記第1センサは、農業機械の周辺に設定された測定範囲に存在する前記作物の地上部までの距離を前記地上情報として検出する測距センサ、または、前記測定範囲に存在する前記作物の地上部の画像を前記地上情報として検出するカメラであり、
前記第2センサは、前記測定範囲に存在する前記作物の地下部までの距離を前記地下情報として検出する測距センサである、請求項1から3のいずれか1項に記載の作物検知システム。
the first sensor is a distance measuring sensor that detects a distance to an above-ground part of the crop present in a measurement range set around the agricultural machine as the ground information, or a camera that detects an image of the above-ground part of the crop present in the measurement range as the ground information,
The crop detection system according to claim 1 , wherein the second sensor is a distance measuring sensor that detects a distance to an underground part of the crop present within the measurement range as the underground information.
前記第1センサにおける前記測距センサは、レーザパルスを射出することで、前記測定範囲に存在する前記作物の地上部までの距離を検出するLiDARセンサである、請求項6に記載の作物検知システム。 The crop detection system according to claim 6, wherein the distance measurement sensor in the first sensor is a LiDAR sensor that detects the distance to the above-ground part of the crop present in the measurement range by emitting a laser pulse. 前記第2センサは、電磁波を送信することで、前記測定範囲に存在する前記作物の地下部までの距離を検出する地中レーダ装置である、請求項6に記載の作物検知システム。 The crop detection system according to claim 6, wherein the second sensor is a ground-penetrating radar device that detects the distance to the underground part of the crop present within the measurement range by transmitting electromagnetic waves. 前記農業機械は、
前記農業機械の位置である車体位置を出力する測位ユニットと、
予め定められた走行経路に前記測位ユニットによって出力された前記位置が一致するように操舵の制御を行う制御装置と、
を備える、請求項6に記載の作物検知システム。
The agricultural machine includes:
a positioning unit that outputs a vehicle body position that is the position of the agricultural machine;
a control device that controls steering so that the position output by the positioning unit coincides with a predetermined travel route;
The crop sensing system of claim 6 , comprising:
前記情報処理装置は、前記地上情報と、前記地下情報とに基づいて、前記作物の形状を作成し、作成した前記作物の形状を、前記圃場を示すフィールドに展開することによって、前記走行経路が設定される圃場マップを作成する、請求項9に記載の作物検知システム。 The crop detection system according to claim 9, wherein the information processing device creates a shape of the crop based on the above-ground information and the underground information, and creates a field map on which the travel route is set by expanding the created shape of the crop into a field representing the field. 前記農業機械は、自動走行を制御する制御装置を備え、
前記情報処理装置は、前記自動走行による走行時に前記第1センサが取得した前記地上情報と、前記自動走行による走行時に前記第2センサが取得した前記地下情報とに基づいて、前記作物を推定する、請求項6に記載の作物検知システム。
The agricultural machine includes a control device for controlling automatic traveling,
The crop detection system of claim 6, wherein the information processing device estimates the crop based on the ground information acquired by the first sensor during the autonomous driving and the underground information acquired by the second sensor during the autonomous driving.
前記農業機械は、前記農業機械の位置である車体位置を出力する測位ユニットを備え、
前記情報処理装置は、
緯度および経度で表された前記車体位置と、少なくとも前記第1センサによって得られた、前記農業機械から前記所定の作物までの距離とから、前記作物における緯度および経度を求め、前記農業機械の走行時に推定された前記作物に基づいて作成した前記作物の形状と、前記作物における緯度および経度とを対応付けた圃場マップを作成する、請求項2または3に記載の作物検知システム。
The agricultural machine includes a positioning unit that outputs a vehicle body position, which is a position of the agricultural machine,
The information processing device includes:
4. The crop detection system according to claim 2 or 3, further comprising: determining the latitude and longitude of the crop from the vehicle position expressed in latitude and longitude and the distance from the agricultural machine to the specified crop obtained by at least the first sensor; and creating a field map that associates the shape of the crop, created based on the crop estimated while the agricultural machine is traveling, with the latitude and longitude of the crop.
JP2023104267A 2023-06-26 2023-06-26 Crop Detection System Pending JP2025004533A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023104267A JP2025004533A (en) 2023-06-26 2023-06-26 Crop Detection System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023104267A JP2025004533A (en) 2023-06-26 2023-06-26 Crop Detection System

Publications (1)

Publication Number Publication Date
JP2025004533A true JP2025004533A (en) 2025-01-15

Family

ID=94217206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023104267A Pending JP2025004533A (en) 2023-06-26 2023-06-26 Crop Detection System

Country Status (1)

Country Link
JP (1) JP2025004533A (en)

Similar Documents

Publication Publication Date Title
JP7659659B2 (en) Path planning system for autonomous agricultural machinery
US20240302845A1 (en) Path-planning system for self-driving agricultural machine
US20250100450A1 (en) Video display system and work vehicle
JPWO2023106158A5 (en)
EP4434313A1 (en) Agricultural machine, sensing system used in agricultural machine, and sensing method
EP4445708A1 (en) Obstacle detection system, agricultural machine and obstacle detection method
WO2023119871A1 (en) Route-planning system and route-planning method for automatically traveling farm machine
US20240317238A1 (en) Agricultural road identification system, control system, and agricultural machine
WO2023112515A1 (en) Map generation system and map generation method
EP4501091B1 (en) Turning control for autonomous agricultural vehicle
US20250040462A1 (en) Turning control for autonomous agricultural vehicle
EP4454445A1 (en) Agricultural machine, sensing system, sensing method, remote operation system, and control method
US20250143197A1 (en) Work vehicle, control method and computer program
US20250068172A1 (en) Map creation system and route planning system
US20240337753A1 (en) Agricultural machine, sensing system for use in agricultural machine, and sensing method
WO2023007835A1 (en) Management system, and method for managing access of agricultural machine to field
JP7680986B2 (en) Route generation system, agricultural machine, and route generation method
JP2025004533A (en) Crop Detection System
JP2025004532A (en) Agricultural machinery and agricultural machinery operation support systems
JP7756174B2 (en) Map generation system and map generation method
US20250117021A1 (en) Travel control system, agricultural machine and travel control method
US20250085432A1 (en) Sensing system, agricultural machine, and sensing device
WO2023243514A1 (en) Work vehicle and method for controlling work vehicle
WO2024004575A1 (en) Work vehicle and method for controlling work vehicle
WO2023238827A1 (en) Agricultural management system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20250624