JfK Kopfgrafik
Home / Archiv / Bd. 66 Nr. 2 (2014) / Originalarbeit – Kurzmitteilung
Originalarbeit – Kurzmitteilung

Neue Sensorentwicklungen – ein technischer Blick auf Pflanzen, Sensoren und Daten*

Recent sensor developments – a technical view to plants, sensors and data

Arno Ruckelshausen
Institut
Hochschule Osnabrück, Fakultät Ingenieurwissenschaften und Informatik COALA – Competence Centre of Applied Agricultural Engineering

Journal für Kulturpflanzen, 66 (2). S. 73–79, 2014, ISSN 1867-0911, DOI: 10.5073/JfK.2014.02.06, Verlag Eugen Ulmer KG, Stuttgart

Kontaktanschrift
Prof. Dr. Arno Ruckelshausen, Hochschule Osnabrück, Albrechtstr. 30, 49076 Osnabrück, E-Mail: a.ruckelshausen@hs-osnabrueck.de
Zur Veröffentlichung angenommen
15. November 2013

Zusammenfassung

Sensorsysteme stellen eine wesentliche Schlüsseltechnologie für den nachhaltigen Pflanzenbau dar, dies betriff die Verbindung ökonomischer und ökologischer Randbedingungen, Automatisierung, Ressourceneinsparung und die Integration von Mensch-Maschine-Schnittstellen. Die Gewinnung von Messdaten hoher Selektivität erfordert den intensiven Einsatz bildgebender Systeme zur Störgrößenreduktion, dabei stellen das Datenmanagement und die Entwicklung intelligenter Algorithmen zur Interpretation von Pflanzendaten aus den Sensorrohdaten wesentliche Aufgabengebiete dar. Die Zuordnung eines einzelnen Sensors zu einer einzelnen Bestandsgröße ergibt daher keinen Sinn, eine deutlichere Trennung der Rohdaten, deren Interpretation und die darauf folgende Entwicklung von Handlungsanweisungen sind erforderlich. Technologisch eröffnen sich durch neue Sensor- und Systemtechnologien – insbesondere in den Bereichen Sensor/Daten-Fusion und Simulationstechnik – vielversprechende Optionen zur Entwicklung praxistauglicher Lösungen.

Stichwörter: Sensorsysteme, Sensorfusion, Phänotypisierungsplattformen, Feldroboter

Abstract

Sensor systems are key components for sustainable crop farming with respect to different aspects, such as the combination of economical and ecological boundary conditions, automation, conservation of resources and inte­gration of human-machine interfaces. In order to obtain measurement data with high selectivities, image-based sensors for noise reduction are necessary, where data management as well as the development of intelligent algorithms are major tasks. The correlation of a single sensor to a single crop parameter does not make sense, a clear separation of raw data, the interpretation and the subsequent development of instructions is necessary. From a technological point of view new sensor and system technologies have a high potential for supporting solutions for the practice, in particular sensor data fusion and simulation technologies.

Key words: Sensor systems, sensor fusion, phenotyping platforms, field robots

Einleitung

Sensoren sind Schlüsselkomponenten des Pflanzenbaus der Zukunft, da sie in vielfältiger Hinsicht nachhaltige Entwicklungsoptionen bieten: Informationen werden zur Optimierung und Automatisierung des Pflanzenbaus eingesetzt, der intelligentere Umgang mit Ressourcen wird ermöglicht, die Kombination ökonomischer und ökolo­gischer Aspekte und die Interaktion des Menschen mit den Landmaschinen kann intelligenter gestaltet werden. Die Landtechnik vollzieht daher den Übergang von rein erfahrungsbasierten Verhaltensweisen über empirische Theorien hin zu mathematisch-basierten Theorien (Krombholz und Soucek, 2012). Die Notwendigkeit dieser Umstellung ergibt sich aus den globalen Anforderungen zur Ernährung von ca. 9 Milliarden Menschen in 2050, der Energieversorgung, zur Bewahrung der Umwelt und Ressourcen, zur Adaption des Klimawandels, zur Verteilung der Ressourcen und zur Integration des Menschen in die Prozesse (Cassmann, 2010).

Die Herausforderungen zur Sensorapplikation unter Feldbedingungen sind vielfältig, dies ist auch der Grund für die bisher geringe Anzahl kommerziell verfügbarer und robuster Sensoren in der Landtechnik zur Erfassung von Pflanzeneigenschaften. Alleine die Frage „Wie wächst eine Pflanze?“ resultiert in einer Vielzahl von sich gegenseitg beeinflussenden Größen, die eine Interpretation erschweren (Poorter et al., 2010). Darüber hinaus gibt es mehrere Störgrößen (z.B. Sonnenlicht, Staub, Feuchtigkeit, Unebenheiten), deren Einfluss detektiert werden oder zumindest bekannt sein muss, wobei insbesondere die dynamische Änderung dieser Störgrößen erhebliche Probleme bereitet. Daher ist die Komplexität des Sen­soreinsatzes unter Feldbedingungen deutlich größer als bei industriellen Fertigungsprozessen mit definierten Umgebungsbedingungen. Dieser Tatsache ist es geschuldet, dass insbesondere bildgebende Systeme in der Erfassung von Pflanzenparametern erst heute langsam an Bedeutung gewinnen, der Einsatz war bisher in der Landtechnik auf Visualisierung oder Fahrerassistenz-Funktionen beschränkt.

Sensortechnologien zur Pflanzenproduktion

Nicht-bildgebende Sensoren

Kommerziell verfügbare Sensoren zur Bestandsführung (insbesondere bei der Düngung) sind nichtbildgebende Systeme, die von einem gleichmäßigen flächendeckenden Pflanzenbestand ausgehen und versuchen, den Störgrößeneinfluss und die Variabilität der Bestände zu korrigieren. Dies sind beispielsweise der Yara-N-Sensor, N-Sensor ALS, CropCircle, MiniVeg, ISARIA oder GreenSeeker (s. z.B. Erdle et al., 2012). Aus den oben genannten Komplexitätsgründen ist der Einsatz dieser Sensoren nach wie vor dominant empirisch, da Herstellerangaben zu den Rohdaten, deren Interpretation (Algorithmen) und letztlich zur Handlungsanweisung (z.B. Düngung) nicht umfassend vorliegen. Es finden daher zahlreiche empirische Vergleiche von Applikationen statt, die häufig den Charakter eines „Reverse Engineering“ haben (Erdle et al., 2012; Wagner, 2012).

Bildgebende Sensoren

Zur Erfassung räumlich und zeitlich variabler Merkmale von Pflanzen und deren Umgebung sind bildgebende Systeme den oben aufgeführten Systeme prinzipiell deutlich überlegen, da sie eine ortsbezogene Differenzierung ermöglichen. Alle Eigenschaften nicht-bildgebender Systeme lassen sich auch bildgebend erfassen, dies betrifft auch spektrale Signaturen. Aufgrund der Notwendigkeit zuverlässiger differenzierter Informationen wird die Bedeutung bildgebender Systeme in der Zukunft deutlich zunehmen. Abb. 1 zeigt zwei verschiedene bildgebende Sensorsysteme im Feldeinsatz: Eine 3D-Kamera nach dem Time-of-Flight-Prinzip erfasst räumliche Abstands­informationen, ein bildgebendes Lichtgitter generiert ein hochaufgelöstes Schattenbild (Binärbild).

Abb. 1. Bildgebende Sensorsysteme im Feldeinsatz: 3D-Time-of-Flight Kamera (links) und bildgebendes Lichtgitter (rechts).

Abb. 1. Bildgebende Sensorsysteme im Feldeinsatz: 3D-Time-of-Flight Kamera (links) und bildgebendes Lichtgitter (rechts).

Sensor- und Datenfusion

Nimmt man einen einzelnen Sensor – dies kann ein bildgebendes oder nicht-bildgebendes System sein – so er­geben sich unter Feldbedingungen fast immer Situationen, die die Aussagekraft des Signals abschwächen oder sogar nicht verwertbar machen. Für komplexe Umgebungssituationen wird die Entwicklung daher weiter in die Kombination von Daten gehen, dies können verschiedene Merkmale einzelner Sensoren, verschiedene Sen­soren oder externe Daten sein (Mitchell, 2007). Die Zuordnung eines einzelnen Sensors auf eine Pflanzeneigenschaft ist dabei eher unrealistisch, verschiedene Merk­male werden kombiniert. Abb. 2 zeigt in der horizontalen Achse die Verwendung mehrerer Sensoren: Lichtgitter, 3D-Kamera, Triangulations-Abstandssensoren, Spectral Imaging (bildgebende Spektroskopie, z.B. NIR), intelligente Farbkamera, GPS und einen Drehgeber. In der vertikalen Achse sind Parameter von Maispflanzen dargestellt, z.B. die Höhe oder die Anzahl der Blätter. Zur Bestimmung der Pflanzenparameter werden verschiedene Information verschiedener Sensoren verknüpft. Die Entwicklung einer solchen Sensor-Pflanzen-Matrix ermöglicht dann eine Selektion der Technologien in Abhängigkeit der Qualität der Parameter (Ruckelshausen et al., 1999; Klose et al., 2012).

Abb. 2. Sensor-Pflanzen-Ma­trix zum Einsatz mehre­rer Sensoren zur Messung von Pflanzen­parametern.

Abb. 2. Sensor-Pflanzen-Ma­trix zum Einsatz mehre­rer Sensoren zur Messung von Pflanzen­parametern.

Die Sensor- und Datenfusion ähnelt dem menschlichen Lernen, bei dem verschiedene Sensorinformationen und Erfahrungen kombiniert werden. Die Übertragung auf technische Prozesse erfordert erheblichen Aufwand. Neben detaillierten Kenntnissen zum Pflanzenbestand und den Umgebungsmerkmalen betrifft dies entsprechendes Wissen über die Sensoren und die entsprechenden Algorithmen incl. Datenmanagement. Ein wichtiger Punkt ist dabei die technische Wiederholbarkeit, die in Feldver­suchen nur schlecht zu realisieren ist. Die Schwankungen der Technik müssen jedoch bekannt sein, so dass die Korrelation der Messdaten mit Eigenschaften des Pflanzenbestandes sichergestellt werden kann. An dieser Stelle können leicht Fehlinterpretationen auftreten. Zur Entwicklung von Sensorfusions-Systemen und Algorithmen werden an der Hochschule Osnabrück z.B. Förderbänder eingesetzt, auf denen Testobjekte mit definierten Geschwindigkeiten an den Sensoren bewegt werden (s. Abb. 3). Die Daten werden dann in eine Datenbank eingelesen und können hinsichtlich der optimalen Sensoren, deren Positionierung oder der technischen Wiederholbarkeit dynamisch charakterisiert werden. Auf Grundlage der im Labor getesteten Systeme werden dann Feldversuche durchgeführt, das Verfahren wird iterativ angewendet, so dass möglichst schnell Praxiserfahrungen in den Entwicklungen berücksichtigt werden können. Eine langjährige „Indoor-Entwicklung“ mit einer sequentiellen Übertragung in das Feld führt häufig zu wenig robusten Lösungen.

Abb. 3. Förderband zur Entwicklung von Sensor/Daten-Fusions-Algorithmen (Hochschule Osnabrück, COALA).

Abb. 3. Förderband zur Entwicklung von Sensor/Daten-Fusions-Algorithmen (Hochschule Osnabrück, COALA).

Phänotypisierungsplattformen für Feldversuche

Zur Gewinnung von Pflanzendaten in Feldversuchen gibt es eine Vielzahl von Optionen: Manuell durch einen Menschen, Sensoren auf vorhandenen Landmaschinen, Satelliten, spezielle Phänotypisierungs-Fahrzeuge oder fliegende Systeme, bewegliche Gewächshäuser oder fest installierte Systeme. Spezifische Phänotypisierungsfahrzeuge – wie z.B. an der TU München (Erdle et al., 2011) eröffnen die weitgehendsten Optionen, entsprechende Entwicklungen wurden auch in Kooperationsprojekten unter Mitwirkung der Hochschule Osnabrück vorangetrieben (Ruckelshausen et al., 2010) und werden in diesem Abschnitt beschrieben. Die Entwicklungen demonstrieren das Potenzial bildgebender Systeme und der Daten­fusion. Dabei wird die Entwicklung sowohl pflanzenbaulich als auch technologisch für ein breites Anwendungsspektrum zugänglich gemacht (Busemeyer et al., 2010; Wunder et al., 2012):

a) In dem Projekt „BreedVision“ werden Triticale-Versuchsparzellen zur Phänotypisierung vermessen. Dabei werden Daten einzelner Pflanzen aufgenommen und für die Parzelle gemittelt. Mit dem System kann die Biomasse im Bestand für Pflanzen bis ca. 1,80 Meter gemessen werden, es wurde ein Durchsatz von ca. 1000 Parzellen pro Tag erreicht (s. Abb. 4). Koopera­tionspartner sind die Saatzuchtanstalt der Universität Hohenheim, Saatzucht Hege, die Amazonen-Werke und die Hochschule Osnabrück.

Abb. 4. (Bild 1 und 2) BreedVision Multisensorplattform zur Feld-Phänotypisierung.

Abb. 4. (Bild 1 und 2) BreedVision Multisensorplattform zur Feld-Phänotypisierung.

b) Im Rahmen des Projektes „BoniRob“ wurde eine autonome Feldroboter-Plattform entwickelt, welches mit einem Applikationsmodul zur Phänotypisierung von Maispflanzen als Reihenkultur ausgestattet ist. Da der Pflanzenabstand größer ist als bei Triticale, können mit den vorhandenen Multisensor-Technologien und RTK-DGPS die einzelnen Pflanzen wiedergefunden werden. Damit kann das Wachstum einzelner Pflanzen zeitabhängig betrachtet werden. Kooperationspartner sind Bosch, die Amazone-Werke und die Hochschule Osnabrück.

Abb. 5 zeigt ein Beispiel zur Feldphänotypisierung mit BreedVision: Für mehrere Messungen wurden Lichtgitterdaten zur Modellierung der Pflanzenhöhe ausgewertet und gegen die manuelle Bonitur aufgetragen (linkes Bild). Für die gleichen Parzellen wurden Wiederholungsmessungen durchgeführt, die im rechten Bild korreliert sind. Unter Kenntnis der technischen Variabilität können nun Pflanzendaten hinsichtlich „echter“ Pflanzenunterschiede oder technischer Ungenauigkeiten interpretiert werden.

Abb. 5. Höhenbestimmung mit der Plattform BreedVision im Feldversuch (links), technische Wiederholbarkeit der Höhenbestimmung im Feldversuch (rechts).

Abb. 5. Höhenbestimmung mit der Plattform BreedVision im Feldversuch (links), technische Wiederholbarkeit der Höhenbestimmung im Feldversuch (rechts).

Die automatisierte Messung von Pflanzenparametern ist eine der ersten Anwendungsszenarien für autonome Feldroboter (Griepentrog et al., 2010), hier wurde im Rahmen des Forschungsprojektes BoniRob (s. Abb. 6) erstmals ein solches System aufgebaut und erste Feldmessungen durchgeführt (Rahe et al., 2010). Die umfangreichen Daten des Multisensorsystems werden mit Orts- und Zeitstempeln in einer Datenbank „online“ abgelegt und können zur Pflanzencharakterisierung „offline“ ausgewertet werden. BoniRob hat eine variable Spurbreite und eine Höhenverstellung, der typische Anwendungsbereich sind Reihenkulturen wie Mais bis Höhen für ca. 80 cm. Durch die Integration eines RTK-DGPS-Systems werden in Feldversuchen Genauigkeiten im Bereich weniger Zentimeter erreicht, so dass in Kombination mit den Sensordaten eine einzelne Pflanze bei einer späteren Überfahrt identifiziert werden kann. Abb. 7 zeigt die Positions- und Höhenermittlung einzelner Pflanzen als Beispiel. Zur Auswertung der Daten werden GIS-Werkzeuge wie OpenJump verwendet, wobei die einzelne Pflanze die Rolle der Teilfläche übernimmt. Auch Wachstumskurven einzelner Pflanzen können daraus ermittelt werden, alle Daten können orts- und zeitgenau visualisiert werden (s. Abb. 8). Das Potenzial von BoniRob geht über die Funktion des Sensorträgers hinaus, derzeit werden Aktorsysteme für andere Applikationen im Rahmen von Forschungsarbeiten entwickelt.

Abb. 6. Autonomer Feldroboter BoniRob mit Applikati­onsmodul zur Feld-Pflanzenphänotypisierung.

Abb. 6. Autonomer Feldroboter BoniRob mit Applikati­onsmodul zur Feld-Pflanzenphänotypisierung.

Abb. 7. Messdaten eines Lichtgitters in Maisreihen (grün) mit Markierung der gemessenen Pflanzenposition und -höhe (Wunder et al., 2012).

Abb. 7. Messdaten eines Lichtgitters in Maisreihen (grün) mit Markierung der gemessenen Pflanzenposition und -höhe (Wunder et al., 2012).

Abb. 8. Darstellung von Pflanzenparametern mit GIS-Werkezeugen (Wunder et al., 2012).

Abb. 8. Darstellung von Pflanzenparametern mit GIS-Werkezeugen (Wunder et al., 2012).

Ausblick

Die Entwicklung von Sensoren, Systemtechnik und intelligenten Algorithmen zur Aufnahme und Interpretation von Felddaten und deren Umsetzung in Handlungsanweisungen steht erst am Anfang. Die Fusion von Sensordaten mit zusätzlicher Information wird dabei eine zunehmend größere Rolle spielen. Zur Entwicklung robuster feldtauglicher Systeme sind umfangreiche Arbeiten zur Kalibrierung und Automatisierung erforderlich, wobei die dargestellte technische Wiederholbarkeit – neben der pflanzenbaulichen Wiederholbarkeit (z.B. beim Design von Versuchsparzellen) eine wichtige Rolle zur Interpretation der Signifikanz der Messdaten einnimmt. Das Datenmanagement (incl. der Archivierung von Messdaten für eine spätere Analyse) ist auch hier ein zentraler technologischer Baustein. Die Entwicklung solcher Verfahren erfordert daher eine noch intensivere interdisziplinäre Zusammenarbeit.

Aufgrund der Komplexität der pflanzenbaulichen und technologischen Rahmenbedingungen ist die Entwicklung
von Simulationswerkzeugen zur Vorentwicklung, Verifikation und Optimierung unerlässlich. Die technologischen Optionen sind mittlerweile vorhanden. Abb. 9 zeigt das Beispiel einer „virtuellen Phänotypisierung“: Es können echte Pflanzen (wie hier am Beispiel Mais) als virtuelle Pflanzen für die Simulation erstellt werden und die gleiche Pflanze als künstliche Pflanze (z.B. mit einem 3D-Drucker). In dem Beispiel wurden die morphologischen Messdaten der künstlichen Pflanze mit BoniRob vermessen und die virtuellen Pflanzen in der Simulation. Beide Datensätze liegen in der gleichen Datenbankstruktur vor und können verglichen werden. Damit können in der Simulation die optimalen Messbedingungen selektiert werden (z.B. hinsichtlich der Art und Anordnung der Sensoren) und anschließend in der Praxis mit iterativen Verfahren evaluiert werden. Damit wird ein intelligenteres und robusteres Zusammenspiel von Theorie und Praxis ermöglicht, der Anteil an überwiegend rein empirischen Evaluationen wird reduziert.

Abb. 9. Virtuelle Phänotypisie­rung von Pflanzen: Die Messung an realen und künstlichen Pflanzen wird durch „Messun­gen“ mit virtuellen Pflanzen in der Simula­tion ergänzt (Tsukor et al., 2012).

Abb. 9. Virtuelle Phänotypisie­rung von Pflanzen: Die Messung an realen und künstlichen Pflanzen wird durch „Messun­gen“ mit virtuellen Pflanzen in der Simula­tion ergänzt (Tsukor et al., 2012).

Die Technologien ermöglichen – wie erste Messungen zeigen – auch den Zugang zur Einzelpflanze, womit durch einzelpflanzenbasierte Prozesse völlig neue Möglichkeiten in der Landwirtschaft ermöglicht werden. Diese Entwicklung verbindet Ökonomie und Ökologie, steht aber erst am Anfang.

Danksagung

Die Arbeiten des Forschungsprojektes „BoniRob“ wurden vom Bundesministerium für Ernährung Landwirtschaft und Verbraucherschutz (BMELV) und der Bundesanstalt für Landwirtschaft und Ernährung (BLE) unterstützt. Das Projekt „BreedVision“ wurde vom Bundesministerium für Bildung und Forschung (BMBF) unterstützt.

Literatur

Busemeyer, L., R. Klose, A. Linz, M. Thiel, E. Wunder, M. Tilenac, A. Ruckelshausen, 2010: Agro-sensor systems for outdoor plant phenotyping platforms in low and high densitiy crop field plots. Proceedings 68th International Conference Agricultural Engineering, pp. 213-218.

Cassmann, K.G., 2010: Global food security, yield limits, precision agriculture, conservation of natural resources and environmental quality. Proceedings 10th International Conference on Precision Agriculture ICPA, Denver/USA.

Erdle, K., B. Mistele, U. Schmidhalter, 2011: Comparison of active and passive spectral sensors in discriminating biomass parameters and nitrogen status in wheat cultivars. Field Crop Res. 124, 74-84.

Erdle, K., B. Mistele, U. Schmidhalte, 2012: Konkurrenz für’s Surfbrett – Sensorenvergleich. dlz agrarmagazin, März 2012, 28-34.

Griepentrog, H.-W., A. Ruckelshausen, R.N. Jörgensen, I. Lund, 2010: Autonomous systems for plant protection. In: Oerke, E.-C., R. Gerhards, G. Menz, R.A. Sikora (Eds.), Precision Crop Protection – The Challenge and Use of Heterogeneity, Dordrecht (u.a.), Springer, pp. 323-334.

Klose, R., C. Scholz, A. Ruckelshausen, 2012: 3D Time-of-Flight camera-based sensor system for automatic crop height monitoring for plant phenotyping. Proceedings CIGR-AgEng 2012 Conference, Automation Technology for Off-Road Equipment, pp 55-60, 2012, ISBN 978-84-615-9654-6.

Krombholz, K., R. Soucek, 2012: Die Landtechnik auf dem Weg zur Wissenschaft. Jahrbuch Agrartechnik 2011, Frankfurt am Main, DLG-Verlag.

Mitchell, H.B., 2007: Multi-Sensor Data Fusion, Berlin (u.a.) Springer, 281 S.

Poorter, H., U. Niinemets, A. Walter, F. Fiorani, U. Schurr, 2010: “A method to construct dose-response curves for a wide range of environmental factors and plant traits by means of a meta-analysis of phenotypic data”, Journal of Experimental Botany 61 (8), 2043-2055.

Rahe, F., K. Heitmeyer, P. Biber, U. Weiss, A. Ruckelshausen, H. Gremmes, R. Klose, M. Thiel, D. Trautz, 2010: First field experiments with the autonomous field scout BoniRob. Proceedings 68th International Conference Agricultural Engineering 2010, pp. 419-424.

Ruckelshausen, A., T. Dzinaj, F. Gelze, S. Kleine Hörstkamp, A. Linz, J. Marquering, 1999: Microcontroller-based multisensor system for online crop/weed detection. Proceedings 1999 Brighton Conference, Vol. 2, pp. 601-606.

Ruckelshausen, A., L. Busemeyer, R. Klose, A. Linz, K. Moeller, M. Thiel, K. Alheit, F. Rahe, D. Trautz, U. Weiss, 2010: Sensor and system technology for individual plant crop scouting, Denver/USA. Proceedings 10th International Conference on Precision Agriculture ICPA.

Tsukor, V., R. Klose, A. Ruckelshausen, 2012: Multi-sensor simulation method for outdoor plant phenotyping based on autonomous field robots; Proceedings CIGR-AgEng Conference, Valencia 9-12 July 2012, papers book. ISBN 978-84-615-9928-8.

Wagner, P., 2012: So rechnen sich N-Sensoren – Stickstoffdüngung. dlz agrarmagazin, März 2012, 36-39.

Wunder, E., A. Kielhorn, R. Klose, M. Thiel, A. Ruckelshausen, 2012: GIS- and sensor-based technologies for individual plant agriculture. Landtechnik 67 (1), 37-41.


Fußnoten:

*  

Der Artikel basiert auf einem Vortrag anlässlich des 1. Julius-Kühn- Symposiums „Sensorik im Pflanzenbau“.

ISSN (elektronisch): 1867-0938
ISSN (print): 1867-0911
Verlag
Eugen Ulmer KG
Ulmer-Logo
Verantwortlicher Herausgeber
Präsident und Professor
Prof. Dr. Frank Ordon
Julius Kühn-Institut - Bundesforschungsinstitut für Kulturpflanzen
Erwin-Baur-Str. 27
06484 Quedlinburg
Schriftleitung
Dr. Anja Hühnlein
Julius Kühn-Institut - Bundesforschungsinstitut für Kulturpflanzen
Erwin-Baur-Str. 27
06484 Quedlinburg
E-Mail: journal-kulturpflanzen@julius-kuehn.de
Co-Schriftleitung
Dr. Ulrike Stahl
Julius Kühn-Institut - Bundesforschungsinstitut für Kulturpflanzen
Layout/Technische Umsetzung
mediaTEXT Jena GmbH
mediaTEXT-Logo
Julius Kühn-Institut (JKI)
Bundesforschungsinstitut für Kulturpflanzen
 
Erwin-Baur-Str. 27
06484 Quedlinburg
Deutschland
Fon: 03946 47-0
Fax: 03946 47-255
Mail: poststelle@julius-kuehn.de
De-Mail: poststelle@julius-kuehn.de-mail.de
Impressum
 
Diese Zeitschrift wird vom Julius Kühn-Institut herausgegeben.
JKI-Logo