Biotechnologie im Zeitalter der Digitalisierung

Auf dem Weg zum intelligenten Labor

  • Abb. 1: Anlagen zur Durchführung von Experimenten im Hochdurchsatz. (1) Roboterarm der Screening-Plattform „LARA“ beim Transport einer 96-Well Platte (Universität Greifswald). (2) Screening-Roboter mit Analytik mittels Durchflusszytometrie und Photometrie (TU Berlin). (3) Pipettierroboter beprobt Minibioreaktorsystem (TU Berlin). Abb. 1: Anlagen zur Durchführung von Experimenten im Hochdurchsatz. (1) Roboterarm der Screening-Plattform „LARA“ beim Transport einer 96-Well Platte (Universität Greifswald). (2) Screening-Roboter mit Analytik mittels Durchflusszytometrie und Photometrie (TU Berlin). (3) Pipettierroboter beprobt Minibioreaktorsystem (TU Berlin).
  • Abb. 1: Anlagen zur Durchführung von Experimenten im Hochdurchsatz. (1) Roboterarm der Screening-Plattform „LARA“ beim Transport einer 96-Well Platte (Universität Greifswald). (2) Screening-Roboter mit Analytik mittels Durchflusszytometrie und Photometrie (TU Berlin). (3) Pipettierroboter beprobt Minibioreaktorsystem (TU Berlin).
  • Peter Neubauer
  • Mark Dörr
  • Florian Glauche
  • Dr.-Ing. Mariano Nicolas Cruz Bournazou

Die Entdeckung neuartiger Biomoleküle und die Entwicklung von biotechnologischen Produktionsprozessen sind in erster Linie experimentgetrieben und daher zeit- und kostenintensiv. Der Trend, parallele Mikroreaktoren und Hochdurchsatz-screening und -analyseverfahren zu verwenden, ermöglicht heute eine enorme Steigerung des experimentellen Durchsatzes. Um die Validität der Ergebnisse sicherzustellen, muss jedoch die Vorhersagbarkeit für den Produktionsmaßstab überprüft werden. Außerdem sollte die hohe Zahl an parallelen Experimenten mit entsprechenden mathematischen und statistischen Methoden geplant und ausgewertet werden, um das volle Potential des automatisierten Labors auszunutzen. Im Idealfall liegen die Messdaten schon während des Versuches vor, sodass die Versuche während der Laufzeit beeinflusst werden können. Durch die konsequente Umsetzung dieser Prinzipien werden neue Produktionsprozesse in der Biotechnologie in Zukunft schneller realisiert und insgesamt kostengünstiger und effizienter werden.

Auf dem Weg zur Bio-Ökonomie

Die in den Biowissenschaften über die vergangenen Jahrzehnte erlangten Erkenntnisse haben eine Vielzahl von Molekülen mit kommerzieller Relevanz hervorgebracht. Neben neuen Wirkstoffen für die Pharmazie kann durch die nachhaltige Produktion von Grundchemikalien eine Zukunft ohne Erdöl möglich sein. Bisher schafft es jedoch nur ein geringer Anteil der entdeckten Moleküle in die industrielle Produktion. Das liegt vor allem daran, dass die Produkt- und Prozessentwicklung in der Biotechnologie sehr zeit- und kostenintensiv ist. In der Vergangenheit war eine experimentgetriebene Herangehensweise, die durch Erfahrungswerte und Expertenwissen ergänzt wurde, in der Forschung und Entwicklung vorherrschend. Dies ändert sich mit dem Einzug von Informationstechnik und Automatisierung schrittweise, sodass heute häufig eine Kombination aus traditionellen und modernen Methoden Anwendung findet. Eine stark auf Computermodellen basierende Herangehensweise, wie sie in anderen Industriezweigen mittlerweile Standard ist, kann in der Biotechnologie aufgrund der Komplexität der zellulären Vorgänge nur sehr begrenzt eingesetzt werden.

Durch die zunehmende Digitalisierung der Ergebnisverarbeitung werden sich in Zukunft jedoch ganz andere Möglichkeiten ergeben, Messdaten aus Hochdurchsatz-Experimenten für die Generierung mathematischer Modelle einzusetzen. Im Folgenden möchten wir die aktuellen Trends im Bereich der Automatisierung von Produkt- und Prozessentwicklung in der Biotechnologie vorstellen und die zukünftigen Herausforderungen hervorheben.

Miniaturisierte Bioreaktoren

Der Erlenmeyerkolben ist bis heute das am häufigsten verwendete Gefäß für mikrobielle Kulturen. Auch wenn die Durchführung von Experimenten im Schüttelkolben auf den ersten Blick trivial erscheint, hängt die Aussagekraft der Ergebnisse stark von den gewählten Versuchsbedingungen ab. So kann schon die Verwendung des klassischen Wattestopfens als Abdeckung und eine zu niedrige oder hohe Schüttelfrequenz zu Sauerstoffmangel in der Kultur führen, was vermindertes Wachstum und niedrigere Produktausbeuten zur Folge hat. Außerdem ist die Anzahl der parallel durchzuführenden Kulturen stark begrenzt, da die Vorbereitung, Beprobung und Zellernte manuell erfolgt. Ein weiteres Problem ist die fehlende Instrumentierung und Sensorik, was die Vergleichbarkeit der Ergebnisse mit denen aus dem Bioreaktor stark erschwert.

Zur Steigerung des Durchsatzes bei Screening und Optimierungsexperimenten werden schon seit Jahrzehnten Mikrotiterplatten verwendet. Diese lassen sich gut mit Mehrkanalpipetten oder Pipettierrobotern bearbeiten, was den Arbeitsaufwand pro Experiment deutlich verringert. Es kann jedoch durch Verdunstung und aufgrund des geringen Sauerstoffeintrags zu einer hohen Variabilität der Ergebnisse kommen. Um diese Effekte zu minimieren, wurden unter anderem optimierte Deckel (‚System Duetz‘, Enzyscreen) und spezielle Mikrotiterplatten (Flower plates, m2plabs) entwickelt. So sind wichtige Merkmale wie Sauerstofftransfer und Verdunstungsrate in Bereichen, die vergleichbar mit Bioreaktoren sind. Mittels nicht-invasiver Sensortechnik können außerdem Parameter wie der pH-Wert oder der Gelöstsauerstoff bestimmt werden (SensorDish Reader, PreSens).

Ein wichtiger Aspekt für die Vergleichbarkeit der kleinen Kultivierungssysteme mit dem Produktionsmaßstab ist die Kulturführung. In Laborversuchen wird meist im Satzverfahren (Batch) gearbeitet, bei dem alle Nährstoffe zu Beginn des Versuchs im Nährmedium vorhanden sind. Wesentlich bessere Ausbeuten sind mit dem Zulaufverfahren (Fed-Batch) möglich, das im Labor-, Pilot- und Produktionsreaktor zum Einsatz kommt und der derzeitige Standard in der industriellen Produktion ist. Um eine bessere Vergleichbarkeit der Experimente aus frühen Entwicklungsphasen zu ermöglichen, sollten die Versuchsbedingungen möglichst unverändert bleiben [1]. Fed-Batch Experimente sind im Milliliter-Maßstab mittels enzymatischer (EnPresso, Enpresso) oder diffusionsbasierter (FeedBeads, Adolf Kühner) Glucosefreisetzung möglich [2]. Eine Zufütterung von Nährlösung kann auch mittels Mikrofluidik (BioLector Pro, m2plabs) oder peristaltischen Pumpen (ambr 15 und 250, Sartorius Stedim) erfolgen.

Der hohe Durchsatz an parallelen Experimenten erfordert eine Anpassung der Versuchsplanungs- und -auswertungsstrategien. Sind Versuchsdaten aufgrund von entsprechender Messtechnik schon während des Versuchs verfügbar, so kann bereits während des Experiments abgeschätzt werden, ob der Verlauf den Erwartungen entspricht und automatisiert Anpassungen vorgenommen werden, damit ein maximaler Informationsgewinn möglich ist. Methoden der statistischen Versuchsplanung und automatisierten Datenanalyse sind bei dem hohen Datenaufkommen notwendig. Die Herausforderung ist neben der Entwicklung und Validierung von Methoden im automatisierten Labor die computergestützte Versuchsplanung, das einheitliche Datenhandling und die sichere Datenarchivierung.

Neben statistischen Methoden können Versuchsdaten auch mittels mathematischer Modellierung analysiert und zur Vorhersage für die Maßstabsvergrößerung (Scale-up) verwendet werden. Die Anpassung der Parameter eines Modells kann viel Zeit in Anspruch nehmen, wenn dies in aufeinanderfolgenden Versuchsreihen umgesetzt wird, die Zeitpunkte zur Probennahme unglücklich gewählt werden oder die Intensität der Auslenkung des Prozesses nicht ausreichte, um die für den spezifischen Fall relevanten Modellparameter abschätzen zu können. Für parallele Systeme, deren Messdaten bereits während des Versuchs vorliegen, bietet es sich an, die Versuchsplanung auch während der Laufzeit des Versuchs anzupassen. Werden Proben versuchsbegleitend analysiert, so können die Messdaten schon im laufenden Versuch direkt genutzt werden, um in sogenannten Zeitfenstern den Prozess mathematisch zu modellieren und darauf aufbauend den Versuchsplan für das folgende Zeitfenster neu zu definieren. Dieser Prozess kann zyklisch wiederholt werden, wobei ein maximaler Informationsgewinn in einem einzigen Experiment möglich ist. Es konnte kürzlich demonstriert werden, dass bei der Anpassung eines Wachstumsmodells für E. coli eine 50-fache Verringerung der Varianz der Parameter möglich ist, wenn die Versuche in acht parallelen Minibioreaktoren mit dieser Methode durchgeführt werden [3].

Das automatisierte Life Science Labor

Eine geplante Laborautomatisierung sollte an die gegenwärtigen und zukünftigen Bedürfnisse angepasst werden und aus möglichst flexibel einsetzbaren Einzelkomponenten bestehen, sodass vor der Entscheidung für ein bestimmtes Automationssystem erst einmal eine sehr detaillierte Bedarfsanalyse bzw. Abschätzung stehen sollte. Weiterhin sind eine Flussanalyse und die Identifizierung der „Flaschenhälse“ der geplanten Experimente sowohl in zeitlicher Hinsicht („Wie lange braucht ein bestimmter Schritt?“) als auch in räumlicher Hinsicht („Wie viele Positionen habe ich in einem Gerät verfügbar?“) wesentlich. Dies sollte zu der Entscheidung führen, ob eine vollständig automatisierte Lösung – mit all ihren Vor- und Nachteilen – wirklich notwendig ist, oder ob sie eher besser durch einige manuelle Arbeitsschritte, wie zum Beispiel die Probenvorbereitung, Bestückung der Geräte und abschließende Probenlagerung, ergänzt wird. Ein solches semi-automatisiertes Vorgehen empfiehlt sich vor allen bei sehr heterogenen Experimentiervorhaben und kleinem Durchsatz (Abb. 1).

Übersteigt der zu erwartende Durchsatz eine Grenze, wird ein Transportsystem (z.B. Schiene oder Roboterarm) zwischen den Geräten notwendig. Dies erhöht in der Regel die Komplexität der Anlage stark, da dann auch eine Zentrale Steuersoftware (PMS) erforderlich wird, die mit allen Komponenten kommunizieren kann. Weiterhin müssen Aspekte der Arbeitssicherheit beachtet werden, wie zum Beispiel eine Einhausung und die damit verbundene verminderte Zugänglichkeit der Geräte. Die Planung einer vollautomatischen Anlage erfordert sehr viel Erfahrung und wird deshalb oft nur von sehr großen Herstellern angeboten – mit der damit entstehenden Abhängigkeit der Gerätewahl. Eine Erweiterung der Anlage wird dann nur im Rahmen der von dem Anbieter unterstützten Geräte möglich. Ein Laborgerätekommunikationsstandard, analog dem USB-Schnittstellen- und Kommunikationsprotokoll mit Plug & Play Fähigkeiten und ein standardisiertes Datenformat würde dieses Problem lösen, ist aber noch nicht sehr verbreitet. So gibt es mit Committed to Continually Advancing Laboratory Practices (CLSI) [3] und Standardization in Lab Automation (SiLA) [4] Standardisierungsansätze, die sich allerdings erst langsam durchsetzen. Auch beim Datenaustausch- und Speicherungsformat existieren Ansätze, wie Analytical Information Markup Language (AnIML) [5], ein XML basiertes Format neben den universelleren und daher auch unspezifischeren Formaten Hierarchical Data Format (HDF5) [6], JavaScript Object Notation (JSON) [7], welche einen sehr geringen Datenoverhead haben und für sehr schnelles Schreiben und Lesen – auch sehr großer Datenmengen – optimiert sind. Die beiden letzteren Formate sind auch für sehr schnellen Datenaustausch zwischen Laborgeräten geeignet, wiederum wegen des geringen Overheads und der leichten Prozessierbarkeit, besonders im Falle von JSON. Auch bei den Datenformaten gibt es von jedem Gerätehersteller proprietäre Lösungen und eine Standardisierung setzt sich nur sehr langsam und nur auf sehr kleinem Nenner, z.B. als Comma Separated Value Format (CSV) durch. Zentrale, automatisierte Anlagen produzieren eine große Menge sehr heterogener Daten (beispielsweise Absorptionsmessungen, Wachstumsdaten, Sauerstoffgehalte, pH-Messungen, Assay Daten, Temperaturdaten, Sequenzdaten). Jeder Gerätehersteller speichert diese Daten proprietär ab. Ein Labor-übergreifendes Langzeit-Datenaustauschformat, das die vollständige Zuordnung der Daten und der ihnen folgenden Evaluierungsschritte – besonders laborübergreifend – erlaubt, steht noch „in den Kinderschuhen“. In wissenschaftlichen Experimenten muss die Reproduzierbarkeit auch zwischen Laboren gegeben sein, so dass diese Anforderung an die Laborautomationssoftware in sehr naher Zukunft entscheidend für ihren Erfolg sein wird.

Die Vision: Universalsoftware für das intelligente Labor

Für ein automatisiertes Labor der Zukunft wären ein allgemeiner Kommunikations- und Datenspeicherstandard, der von einem sehr breiten Konsortium möglichst lizenzfrei (oder mit sehr niedrigen Kosten verbunden) entwickelt wird, nicht nur wünschenswert sondern ist unabdingbar: niemand diskutiert, ob ein Computer einen USB Adapter braucht oder ob bei einem Android Smartphone der von vielen Enthusiasten freiwillig als quelloffene Software entwickelte Linux Kernel durch ein anderes Betriebssystem ersetzt werden solle; auch beim Surfen im Internet wird der zu Grunde liegende HTML/JSON Datenaustausch Standard nicht bewusst vom Benutzer wahrgenommen. Das sind alles gut funktionierende Infrastrukturformate, die ganz entscheidend für den Erfolg des Personalcomputers und des Smartphones beigetragen haben.

Allen Experimenten, bei denen Laborautomationssysteme eingesetzt werden, ist es gemein, dass die Experimente vor der Durchführung geplant und in einer formalen Struktur, wie z.B. einem Fließdiagram oder einer Skriptsprache beschrieben werden. Diese Beschreibung wird dann in eine Maschinensprache (Gerätesprache, Methodenskript) übersetzt und von den Geräten ausgeführt. Auch für die Methodenentwicklung bietet jeder Gerätehersteller eine proprietäre Lösung an, die unter einer vereinheitlichten Oberfläche zusammengefasst werden könnte, was jedem Hersteller die Entwicklungskosten sparen würde.

Für die bessere Reproduzierbarkeit sollten sich Standards für die Durchführung von Hochdurchsatzexperimenten und die Auswertung der Daten entwickeln. Die Frage, wer diese Standards entwickelt und in welcher Form, ist entscheidend für deren Erfolg und die weitere Verbreitung. Wird nur ein kleiner Kreis von ausgewählten Firmen einbezogen, kann das Konzept eines gemeinsamen Standards nicht erreicht werden, genauso als wenn es ganz den Benutzern im Labor überlassen wird. Beide Seiten, Hersteller und Nutzer, müssen wichtige technische und anwendungsbezogene Aspekte beitragen. Nur wenn alle großen Hersteller sich mit den Anwendern an einen Tisch setzen, ist ein Durchbruch möglich.

Für eine flächendeckende Verbreitung wird es auch unumgänglich sein, dass die Standards quelloffen, gut dokumentiert, leicht implementierbar, und breit anwendbar sowie fehlertolerant sind, d.h. Implementierungsfehler müssen schnell auffindbar und korrigierbar sein. Dies kann unserer Meinung nach am besten mit quelloffenen Standards (Open-Source) realisiert werden.

In den letzten Jahren haben sich verschiedene Open-Source Projekte dieser Herausforderung gestellt – auch als Antwort auf die untereinander nicht-kompatiblen bzw. limitierten Insellösungen der großen Hersteller.

So fokussiert Carity [8] sich auf die Entwicklung eines Prozessmanagement Systems, während sich KNIME [9], Orange [10] und Anaconda [11] vorwiegend auf die Datenauswertung von großen Datenmengen mit einer graphischen Oberfläche und Benutzer Interaktionen konzentrieren. Die Projekte der LARAsuite [12] versuchen beide Aspekte in einer flexiblen (Web-)Oberfläche und Struktur zu vereinen. Hierbei steht der ganzheitliche Aspekt „von der Versuchsplanung bis zur automatisierten Datenanalyse und Langzeitspeicherung“ im Vordergrund. Alle diese Projekte befruchten sich gegenseitig und geben dem Anwender die Wahl, bis zu welchem Grad er sich in die Nutzung und Entwicklung einbringen möchte. Natürlich sind alle Anwender aufgefordert, bei den entsprechenden Projekten aktiv durch Feedback, Wünsche, Kommentare sowie am Programmcode mitzuwirken.

Zusammenfassung

Die Verbreitung von Automatisierungslösungen schreitet in den Lebenswissenschaften voran. In Kombination mit innovativen Screeningansätzen und Kultivierungssystemen kann der Informationsgehalt der Experimente und die Relevanz der Daten in Bezug auf den Produktionsmaßstab deutlich verbessert werden. Neben geeigneten Verfahren zur Experimentplanung und Datenanalyse sind einheitliche, in breitem Konsens entwickelte Standards im Bereich der Laborautomatisierung nötig. Um die Schlüsselrolle der Biotechnologie auf dem Weg zu einer nachhaltigen Ökonomie zu festigen, müssen automatisierte Labore die Flexibilität erreichen, die man in den Bereichen des Maschinenbaus und der Informationstechnologien bereits erreicht hat.

Autoren
Florian Glauche1, Mark Dörr2, Nicolas Cruz-Bournazou1, Peter Neubauer1

Zugehörigkeiten
1Institut für Biotechnologie,
Technische Universität Berlin, Deutschland
2Institut für Biochemie Universität
Greifswald, Deutschland

Lebensläufe

Peter Neubauer
ist Professor für Bioverfahrenstechnik an der TU Berlin (seit 2008). Nach dem Studium der Mikrobiologie und der Promotion (1992) an der Ernst-Moritz-Arndt-Universität Greifswald war er Postdoc an der KTH Stockholm,
Gruppenleiter im Bereich Biotechnologie an der Martin-Luther-Universität Halle-Wittenberg und von 2000-2008 Professor für Bioprocess Engineering an der Universität Oulu, Finnland.

Mark Dörr
studierte Chemie und Biologie an der Universität Mainz und Jena. Anschließend hatte er einen sechsjährigen Forschungsaufenthalt in Dänemark bevor er 2012 als verantwortlicher Wissenschaftler für die Mittelgroße Hochdurchsatz-Protein Screening Roboter Plattform des Institutes für Biochemie der Universität Greifswald in der Arbeitsgruppe von Prof. Uwe Bornscheuer (lara.uni-greifswald.de) eingestellt wurde. Seit dieser Zeit ist er für den Betrieb, die biochemische Versuchsplanung, Prozessprogrammierung und Datenevaluierung zuständig. Er ist Hauptentwickler der LARAsuite [12], einer quelloffenen und freien Laborautomationssoftware.

Florian Glauche
absolvierte sein Biotechnologiestudium an der Technischen Universität Berlin. Seit 2012 ist er wissenschaftlicher Mitarbeiter am Fachgebiet Bioverfahrenstechnik des Instituts für Biotechnologie der TU Berlin. Neben der Entwicklung von Methoden für die automatisierte Bioprozessentwicklung beschäftigt er sich mit der Fragestellung, wie in den Laboren der Zukunft gearbeitet werden wird. Außerdem beteiligt er sich an Lehrveranstaltungen, in denen Studenten der Biotechnologie das Thema Automatisierung nahegebracht wird.

Dr.-Ing. Mariano Nicolas Cruz Bournazou
leitet die Gruppe zur modell gestützten Bioprozessentwicklung im Fachgebiet für Bioverfahrenstechnik der TU Berlin. Nach einem Diplom in Chemieingenieurwesen der Universität UNAM in Mexiko, hat er im Exzellenzcluster UNICAT im Bereich Modellierung und mechanistische Erkennung für Bioprozesse promoviert. Der Fokus seiner Arbeit liegt im Aufbau, struktureller Adaptierung und Anpassung mechanistischer Modelle für industrielle Bioprozesse. Hierfür werden computergesteuerte Versuche optimiert und in Roboteranlagen rekursiv durchgeführt.

Kontakt
Prof. Dr. Peter Neubauer
Technische Universität Berlin
Fakultät III – Prozesswissenschaften
Institut für Biotechnologie
Fachgebiet Bioverfahrenstechnik
Berlin, Deutschland
peter.neubauer@tu-berlin.de
www.bioprocess.tu-berlin.de

Referenzen und Weblinks

[1] Neubauer, P., Cruz, N., Glauche, F., Junne, S., et al., Consistent development of bioprocesses from microliter cultures to the industrial scale. Eng. Life Sci. 2013, 13, 224–238.
[2] Krause, M., Neubauer, A., Neubauer, P., The fed-batch principle for the molecular biology lab: controlled nutrient diets in ready-made media improve production of recombinant proteins in Escherichia coli. Microb. Cell Fact. 2016, 15, 110.
[3] Cruz Bournazou, M.N., Barz, T., Nickel, D., Lopez Cárdenas, D., et al., Online optimal experimental re-design in robotic parallel fed-batch cultivation facilities for validation of macro-kinetic growth models using E. coli as an example. Biotechnol. Bioeng. 2016, 114, 1–29.

[4] https://clsi.org
[5] http://www.sila-standard.org
[6] https://www.animl.org
[7] https://www.hdfgroup.org
[8] http://www.json.org
[9] http://www.people.fas.harvard.edu/~rojasechenique/claritydocs/index.html
[10] https://www.knime.com
[11] https://orange.biolab.si
[12] https://www.anaconda.com
[13] https://github.com/larasuite

Das Zukunftslabor

Mehr Quo Vadis Artikel

Kontaktieren

Technische Universität Berlin
Ackerstr. 71-76, ACK24
13355 Berlin
Deutschland

Jetzt registrieren!

Die neusten Informationen direkt per Newsletter.

To prevent automated spam submissions leave this field empty.