Segmentation and tracking of cells and nuclei using deep learning:
Die Analyse von großen Datensätzen von Mikroskopiebilddaten, insbesondere Segmentierung und Tracking, ist ein sehr wichtiger Aspekt vieler biologischer Studien. Für die leistungsfähige und verlässliche Nutzung ist der derzeitige Stand der Wissenschaft dennoch noch nicht ausreichend. Die vorhandenen...
Gespeichert in:
1. Verfasser: | |
---|---|
Format: | Abschlussarbeit Elektronisch E-Book |
Sprache: | English |
Veröffentlicht: |
Berlin
[2023?]
|
Schlagworte: | |
Online-Zugang: | Volltext |
Zusammenfassung: | Die Analyse von großen Datensätzen von Mikroskopiebilddaten, insbesondere Segmentierung und Tracking, ist ein sehr wichtiger Aspekt vieler biologischer Studien. Für die leistungsfähige und verlässliche Nutzung ist der derzeitige Stand der Wissenschaft dennoch noch nicht ausreichend. Die vorhandenen Methoden sind oft schwer zu benutzen für ungeübte Nutzer, die Leistung auf anderen Datensätzen ist häufig verbesserungswürdig und sehr große Mengen an Trainingsdaten werden benötigt. Ich ging dieses Problem aus verschiedenen Richtungen an: (i) Ich präsentiere klare Richtlinien wie Artefakte beim Arbeiten mit sehr großen Bilddaten verhindert werden können. (ii) Ich präsentiere eine Erweiterung für eine Reihe von grundlegenden Methoden zur Instanzsegmentierung von Zellkernen. Durch Verwendung einer unterstützenden Hilfsaufgabe ermöglicht die Erweiterung auf einfache und unkomplizierte Art und Weise Leistung auf dem aktuellen Stand der Wissenschaft. Dabei zeige ich zudem, dass schwache Label ausreichend sind, um eine effiziente Objekterkennung auf 3d Zellkerndaten zu ermöglichen. (iii) Ich stelle eine neue Methode zur Instanzsegmentierung vor, die auf eine große Auswahl von Objekten anwendbar ist, von einfachen Formen bis hin zu Überlagerungen und komplexen Baumstrukturen, die das gesamte Bild umfassen. (iv) Auf den vorherigen Arbeiten aufbauend präsentiere ich eine neue Trackingmethode, die auch mit sehr großen Bilddaten zurecht kommt, aber nur schwache und dünnbesetzte Labels benötigt und trotzdem besser als die bisherigen besten Methoden funktioniert. Die Anpassungsfähigkeit an neue Datensätze wird durch eine automatisierte Parametersuche gewährleistet. (v) Für Nutzer, die das Tracking von Objekten in ihrer Arbeit verwenden möchten, präsentiere ich zusätzlich einen detaillierten Leitfaden, der es ihnen ermöglicht fundierte Entscheidungen zu treffen, welche Methode am besten zu ihrem Projekt passt. Englische Version: Image analysis of large datasets of microscopy data, in particular segmentation and tracking, is an important aspect of many biological studies. Yet, the current state of research is still not adequate enough for copious and reliable everyday use. Existing methods are often hard to use, perform subpar on new datasets and require vast amounts of training data. I approached this problem from multiple angles: (i) I present clear guidelines on how to operate artifact-free on huge images. (ii) I present an extension for existing methods for instance segmentation of nuclei. By using an auxiliary task, it enables state-of-the-art performance in a simple and straightforward way. In the process I show that weak labels are sufficient for efficient object detection for 3d nuclei data. (iii) I present an innovative method for instance segmentation that performs extremely well on a wide range of objects, from simple shapes to complex image-spanning tree structures and objects with overlaps. (iv) Building upon the above, I present a novel tracking method that operates on huge images but only requires weak and sparse labels. Yet, it outperforms previous state-of-the-art methods. An automated weight search method enables adaptability to new datasets. (v) For practitioners seeking to employ cell tracking, I provide a comprehensive guideline on how to make an informed decision about what methods to use for their project. |
Beschreibung: | Tag der mündlichen Prüfung: 26.05.2023 Der Text enthält eine Zusammenfassung in deutscher und englischer Sprache. Veröffentlichung der elektronischen Ressource auf dem edoc-Server der Humboldt-Universität zu Berlin: 2023 |
Beschreibung: | 1 Online-Ressource (xxi, 164 Seiten) Illustrationen, Diagramme |
Internformat
MARC
LEADER | 00000nmm a2200000 c 4500 | ||
---|---|---|---|
001 | BV049344357 | ||
003 | DE-604 | ||
005 | 20240408 | ||
006 | a m||| 00||| | ||
007 | cr|uuu---uuuuu | ||
008 | 230927s2023 |||| o||u| ||||||eng d | ||
024 | 7 | |a 10.18452/26934 |2 doi | |
024 | 7 | |a urn:nbn:de:kobv:11-110-18452/28131-3 |2 urn | |
035 | |a (OCoLC)1401203573 | ||
035 | |a (DE-599)BVBBV049344357 | ||
040 | |a DE-604 |b ger |e rda | ||
041 | 0 | |a eng | |
049 | |a DE-11 | ||
084 | |a ST 640 |0 (DE-625)143686: |2 rvk | ||
084 | |a ST 300 |0 (DE-625)143650: |2 rvk | ||
084 | |8 2\p |a 004 |2 23sdnb | ||
084 | |8 1\p |a 006.42 |2 23ksdnb | ||
100 | 1 | |a Hirsch, Peter Johannes |e Verfasser |0 (DE-588)1304150593 |4 aut | |
245 | 1 | 0 | |a Segmentation and tracking of cells and nuclei using deep learning |c von Peter Johannes Hirsch, M. Sc. |
264 | 1 | |a Berlin |c [2023?] | |
300 | |a 1 Online-Ressource (xxi, 164 Seiten) |b Illustrationen, Diagramme | ||
336 | |b txt |2 rdacontent | ||
337 | |b c |2 rdamedia | ||
338 | |b cr |2 rdacarrier | ||
500 | |a Tag der mündlichen Prüfung: 26.05.2023 | ||
500 | |a Der Text enthält eine Zusammenfassung in deutscher und englischer Sprache. | ||
500 | |a Veröffentlichung der elektronischen Ressource auf dem edoc-Server der Humboldt-Universität zu Berlin: 2023 | ||
502 | |b Dissertation |c Humboldt-Universität zu Berlin |d 2023 | ||
520 | 8 | |a Die Analyse von großen Datensätzen von Mikroskopiebilddaten, insbesondere Segmentierung und Tracking, ist ein sehr wichtiger Aspekt vieler biologischer Studien. Für die leistungsfähige und verlässliche Nutzung ist der derzeitige Stand der Wissenschaft dennoch noch nicht ausreichend. Die vorhandenen Methoden sind oft schwer zu benutzen für ungeübte Nutzer, die Leistung auf anderen Datensätzen ist häufig verbesserungswürdig und sehr große Mengen an Trainingsdaten werden benötigt. Ich ging dieses Problem aus verschiedenen Richtungen an: (i) Ich präsentiere klare Richtlinien wie Artefakte beim Arbeiten mit sehr großen Bilddaten verhindert werden können. (ii) Ich präsentiere eine Erweiterung für eine Reihe von grundlegenden Methoden zur Instanzsegmentierung von Zellkernen. Durch Verwendung einer unterstützenden Hilfsaufgabe ermöglicht die Erweiterung auf einfache und unkomplizierte Art und Weise Leistung auf dem aktuellen Stand der Wissenschaft. Dabei zeige ich zudem, dass schwache Label ausreichend sind, um eine effiziente Objekterkennung auf 3d Zellkerndaten zu ermöglichen. (iii) Ich stelle eine neue Methode zur Instanzsegmentierung vor, die auf eine große Auswahl von Objekten anwendbar ist, von einfachen Formen bis hin zu Überlagerungen und komplexen Baumstrukturen, die das gesamte Bild umfassen. (iv) Auf den vorherigen Arbeiten aufbauend präsentiere ich eine neue Trackingmethode, die auch mit sehr großen Bilddaten zurecht kommt, aber nur schwache und dünnbesetzte Labels benötigt und trotzdem besser als die bisherigen besten Methoden funktioniert. Die Anpassungsfähigkeit an neue Datensätze wird durch eine automatisierte Parametersuche gewährleistet. (v) Für Nutzer, die das Tracking von Objekten in ihrer Arbeit verwenden möchten, präsentiere ich zusätzlich einen detaillierten Leitfaden, der es ihnen ermöglicht fundierte Entscheidungen zu treffen, welche Methode am besten zu ihrem Projekt passt. | |
520 | 8 | |a Englische Version: Image analysis of large datasets of microscopy data, in particular segmentation and tracking, is an important aspect of many biological studies. Yet, the current state of research is still not adequate enough for copious and reliable everyday use. Existing methods are often hard to use, perform subpar on new datasets and require vast amounts of training data. I approached this problem from multiple angles: (i) I present clear guidelines on how to operate artifact-free on huge images. (ii) I present an extension for existing methods for instance segmentation of nuclei. By using an auxiliary task, it enables state-of-the-art performance in a simple and straightforward way. In the process I show that weak labels are sufficient for efficient object detection for 3d nuclei data. (iii) I present an innovative method for instance segmentation that performs extremely well on a wide range of objects, from simple shapes to complex image-spanning tree structures and objects with overlaps. (iv) Building upon the above, I present a novel tracking method that operates on huge images but only requires weak and sparse labels. Yet, it outperforms previous state-of-the-art methods. An automated weight search method enables adaptability to new datasets. (v) For practitioners seeking to employ cell tracking, I provide a comprehensive guideline on how to make an informed decision about what methods to use for their project. | |
650 | 0 | 7 | |8 3\p |a Bildsegmentierung |0 (DE-588)4145448-0 |2 gnd |
650 | 0 | 7 | |8 4\p |a Maschinelles Lernen |0 (DE-588)4193754-5 |2 gnd |
650 | 0 | 7 | |8 5\p |a Objekterkennung |0 (DE-588)4314334-9 |2 gnd |
650 | 0 | 7 | |8 6\p |a Objektverfolgung |0 (DE-588)4311226-2 |2 gnd |
650 | 0 | 7 | |8 7\p |a Bildverarbeitung |0 (DE-588)4006684-8 |2 gnd |
650 | 0 | 7 | |8 8\p |a Konturfindung |0 (DE-588)4165186-8 |2 gnd |
653 | |a Maschinelles Lernen | ||
653 | |a Bildsegmentierung | ||
653 | |a Objektverfolgung | ||
653 | |a Mikroskopie | ||
653 | |a Zellen | ||
653 | |a machine learning | ||
653 | |a segmentation | ||
653 | |a tracking | ||
653 | |a microscopy | ||
653 | |a cells | ||
655 | 7 | |0 (DE-588)4113937-9 |a Hochschulschrift |2 gnd-content | |
776 | 0 | 8 | |i Erscheint auch als |a Hirsch, Peter Johannes |t Segmentation and tracking of cells and nuclei using deep learning |n Druck-Ausgabe |w (DE-604)BV049371876 |
856 | 4 | 0 | |u http://edoc.hu-berlin.de/18452/28131 |x Verlag |z kostenfrei |3 Volltext |
912 | |a ebook | ||
999 | |a oai:aleph.bib-bvb.de:BVB01-034604851 | ||
883 | 0 | |8 1\p |a aepkn |c 0,76276 |d 20231004 |q DE-101 |u https://d-nb.info/provenance/plan#aepkn | |
883 | 0 | |8 2\p |a emasg |c 0,57757 |d 20231004 |q DE-101 |u https://d-nb.info/provenance/plan#emasg | |
883 | 0 | |8 3\p |a emagnd |c 0,30119 |d 20231004 |q DE-101 |u https://d-nb.info/provenance/plan#emagnd | |
883 | 0 | |8 4\p |a emagnd |c 0,23457 |d 20231004 |q DE-101 |u https://d-nb.info/provenance/plan#emagnd | |
883 | 0 | |8 5\p |a emagnd |c 0,22487 |d 20231004 |q DE-101 |u https://d-nb.info/provenance/plan#emagnd | |
883 | 0 | |8 6\p |a emagnd |c 0,20133 |d 20231004 |q DE-101 |u https://d-nb.info/provenance/plan#emagnd | |
883 | 0 | |8 7\p |a emagnd |c 0,13683 |d 20231004 |q DE-101 |u https://d-nb.info/provenance/plan#emagnd | |
883 | 0 | |8 8\p |a emagnd |c 0,08070 |d 20231004 |q DE-101 |u https://d-nb.info/provenance/plan#emagnd |
Datensatz im Suchindex
_version_ | 1804185872350838784 |
---|---|
adam_txt | |
any_adam_object | |
any_adam_object_boolean | |
author | Hirsch, Peter Johannes |
author_GND | (DE-588)1304150593 |
author_facet | Hirsch, Peter Johannes |
author_role | aut |
author_sort | Hirsch, Peter Johannes |
author_variant | p j h pj pjh |
building | Verbundindex |
bvnumber | BV049344357 |
classification_rvk | ST 640 ST 300 |
collection | ebook |
ctrlnum | (OCoLC)1401203573 (DE-599)BVBBV049344357 |
discipline | Informatik |
discipline_str_mv | Informatik |
format | Thesis Electronic eBook |
fullrecord | <?xml version="1.0" encoding="UTF-8"?><collection xmlns="http://www.loc.gov/MARC21/slim"><record><leader>06604nmm a2200733 c 4500</leader><controlfield tag="001">BV049344357</controlfield><controlfield tag="003">DE-604</controlfield><controlfield tag="005">20240408 </controlfield><controlfield tag="006">a m||| 00||| </controlfield><controlfield tag="007">cr|uuu---uuuuu</controlfield><controlfield tag="008">230927s2023 |||| o||u| ||||||eng d</controlfield><datafield tag="024" ind1="7" ind2=" "><subfield code="a">10.18452/26934</subfield><subfield code="2">doi</subfield></datafield><datafield tag="024" ind1="7" ind2=" "><subfield code="a">urn:nbn:de:kobv:11-110-18452/28131-3</subfield><subfield code="2">urn</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(OCoLC)1401203573</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(DE-599)BVBBV049344357</subfield></datafield><datafield tag="040" ind1=" " ind2=" "><subfield code="a">DE-604</subfield><subfield code="b">ger</subfield><subfield code="e">rda</subfield></datafield><datafield tag="041" ind1="0" ind2=" "><subfield code="a">eng</subfield></datafield><datafield tag="049" ind1=" " ind2=" "><subfield code="a">DE-11</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ST 640</subfield><subfield code="0">(DE-625)143686:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ST 300</subfield><subfield code="0">(DE-625)143650:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="8">2\p</subfield><subfield code="a">004</subfield><subfield code="2">23sdnb</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="8">1\p</subfield><subfield code="a">006.42</subfield><subfield code="2">23ksdnb</subfield></datafield><datafield tag="100" ind1="1" ind2=" "><subfield code="a">Hirsch, Peter Johannes</subfield><subfield code="e">Verfasser</subfield><subfield code="0">(DE-588)1304150593</subfield><subfield code="4">aut</subfield></datafield><datafield tag="245" ind1="1" ind2="0"><subfield code="a">Segmentation and tracking of cells and nuclei using deep learning</subfield><subfield code="c">von Peter Johannes Hirsch, M. Sc.</subfield></datafield><datafield tag="264" ind1=" " ind2="1"><subfield code="a">Berlin</subfield><subfield code="c">[2023?]</subfield></datafield><datafield tag="300" ind1=" " ind2=" "><subfield code="a">1 Online-Ressource (xxi, 164 Seiten)</subfield><subfield code="b">Illustrationen, Diagramme</subfield></datafield><datafield tag="336" ind1=" " ind2=" "><subfield code="b">txt</subfield><subfield code="2">rdacontent</subfield></datafield><datafield tag="337" ind1=" " ind2=" "><subfield code="b">c</subfield><subfield code="2">rdamedia</subfield></datafield><datafield tag="338" ind1=" " ind2=" "><subfield code="b">cr</subfield><subfield code="2">rdacarrier</subfield></datafield><datafield tag="500" ind1=" " ind2=" "><subfield code="a">Tag der mündlichen Prüfung: 26.05.2023</subfield></datafield><datafield tag="500" ind1=" " ind2=" "><subfield code="a">Der Text enthält eine Zusammenfassung in deutscher und englischer Sprache.</subfield></datafield><datafield tag="500" ind1=" " ind2=" "><subfield code="a">Veröffentlichung der elektronischen Ressource auf dem edoc-Server der Humboldt-Universität zu Berlin: 2023</subfield></datafield><datafield tag="502" ind1=" " ind2=" "><subfield code="b">Dissertation</subfield><subfield code="c">Humboldt-Universität zu Berlin</subfield><subfield code="d">2023</subfield></datafield><datafield tag="520" ind1="8" ind2=" "><subfield code="a">Die Analyse von großen Datensätzen von Mikroskopiebilddaten, insbesondere Segmentierung und Tracking, ist ein sehr wichtiger Aspekt vieler biologischer Studien. Für die leistungsfähige und verlässliche Nutzung ist der derzeitige Stand der Wissenschaft dennoch noch nicht ausreichend. Die vorhandenen Methoden sind oft schwer zu benutzen für ungeübte Nutzer, die Leistung auf anderen Datensätzen ist häufig verbesserungswürdig und sehr große Mengen an Trainingsdaten werden benötigt. Ich ging dieses Problem aus verschiedenen Richtungen an: (i) Ich präsentiere klare Richtlinien wie Artefakte beim Arbeiten mit sehr großen Bilddaten verhindert werden können. (ii) Ich präsentiere eine Erweiterung für eine Reihe von grundlegenden Methoden zur Instanzsegmentierung von Zellkernen. Durch Verwendung einer unterstützenden Hilfsaufgabe ermöglicht die Erweiterung auf einfache und unkomplizierte Art und Weise Leistung auf dem aktuellen Stand der Wissenschaft. Dabei zeige ich zudem, dass schwache Label ausreichend sind, um eine effiziente Objekterkennung auf 3d Zellkerndaten zu ermöglichen. (iii) Ich stelle eine neue Methode zur Instanzsegmentierung vor, die auf eine große Auswahl von Objekten anwendbar ist, von einfachen Formen bis hin zu Überlagerungen und komplexen Baumstrukturen, die das gesamte Bild umfassen. (iv) Auf den vorherigen Arbeiten aufbauend präsentiere ich eine neue Trackingmethode, die auch mit sehr großen Bilddaten zurecht kommt, aber nur schwache und dünnbesetzte Labels benötigt und trotzdem besser als die bisherigen besten Methoden funktioniert. Die Anpassungsfähigkeit an neue Datensätze wird durch eine automatisierte Parametersuche gewährleistet. (v) Für Nutzer, die das Tracking von Objekten in ihrer Arbeit verwenden möchten, präsentiere ich zusätzlich einen detaillierten Leitfaden, der es ihnen ermöglicht fundierte Entscheidungen zu treffen, welche Methode am besten zu ihrem Projekt passt.</subfield></datafield><datafield tag="520" ind1="8" ind2=" "><subfield code="a">Englische Version: Image analysis of large datasets of microscopy data, in particular segmentation and tracking, is an important aspect of many biological studies. Yet, the current state of research is still not adequate enough for copious and reliable everyday use. Existing methods are often hard to use, perform subpar on new datasets and require vast amounts of training data. I approached this problem from multiple angles: (i) I present clear guidelines on how to operate artifact-free on huge images. (ii) I present an extension for existing methods for instance segmentation of nuclei. By using an auxiliary task, it enables state-of-the-art performance in a simple and straightforward way. In the process I show that weak labels are sufficient for efficient object detection for 3d nuclei data. (iii) I present an innovative method for instance segmentation that performs extremely well on a wide range of objects, from simple shapes to complex image-spanning tree structures and objects with overlaps. (iv) Building upon the above, I present a novel tracking method that operates on huge images but only requires weak and sparse labels. Yet, it outperforms previous state-of-the-art methods. An automated weight search method enables adaptability to new datasets. (v) For practitioners seeking to employ cell tracking, I provide a comprehensive guideline on how to make an informed decision about what methods to use for their project.</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="8">3\p</subfield><subfield code="a">Bildsegmentierung</subfield><subfield code="0">(DE-588)4145448-0</subfield><subfield code="2">gnd</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="8">4\p</subfield><subfield code="a">Maschinelles Lernen</subfield><subfield code="0">(DE-588)4193754-5</subfield><subfield code="2">gnd</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="8">5\p</subfield><subfield code="a">Objekterkennung</subfield><subfield code="0">(DE-588)4314334-9</subfield><subfield code="2">gnd</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="8">6\p</subfield><subfield code="a">Objektverfolgung</subfield><subfield code="0">(DE-588)4311226-2</subfield><subfield code="2">gnd</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="8">7\p</subfield><subfield code="a">Bildverarbeitung</subfield><subfield code="0">(DE-588)4006684-8</subfield><subfield code="2">gnd</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="8">8\p</subfield><subfield code="a">Konturfindung</subfield><subfield code="0">(DE-588)4165186-8</subfield><subfield code="2">gnd</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Maschinelles Lernen</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Bildsegmentierung</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Objektverfolgung</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Mikroskopie</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Zellen</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">machine learning</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">segmentation</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">tracking</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">microscopy</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">cells</subfield></datafield><datafield tag="655" ind1=" " ind2="7"><subfield code="0">(DE-588)4113937-9</subfield><subfield code="a">Hochschulschrift</subfield><subfield code="2">gnd-content</subfield></datafield><datafield tag="776" ind1="0" ind2="8"><subfield code="i">Erscheint auch als</subfield><subfield code="a">Hirsch, Peter Johannes</subfield><subfield code="t">Segmentation and tracking of cells and nuclei using deep learning</subfield><subfield code="n">Druck-Ausgabe</subfield><subfield code="w">(DE-604)BV049371876</subfield></datafield><datafield tag="856" ind1="4" ind2="0"><subfield code="u">http://edoc.hu-berlin.de/18452/28131</subfield><subfield code="x">Verlag</subfield><subfield code="z">kostenfrei</subfield><subfield code="3">Volltext</subfield></datafield><datafield tag="912" ind1=" " ind2=" "><subfield code="a">ebook</subfield></datafield><datafield tag="999" ind1=" " ind2=" "><subfield code="a">oai:aleph.bib-bvb.de:BVB01-034604851</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">1\p</subfield><subfield code="a">aepkn</subfield><subfield code="c">0,76276</subfield><subfield code="d">20231004</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#aepkn</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">2\p</subfield><subfield code="a">emasg</subfield><subfield code="c">0,57757</subfield><subfield code="d">20231004</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emasg</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">3\p</subfield><subfield code="a">emagnd</subfield><subfield code="c">0,30119</subfield><subfield code="d">20231004</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emagnd</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">4\p</subfield><subfield code="a">emagnd</subfield><subfield code="c">0,23457</subfield><subfield code="d">20231004</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emagnd</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">5\p</subfield><subfield code="a">emagnd</subfield><subfield code="c">0,22487</subfield><subfield code="d">20231004</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emagnd</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">6\p</subfield><subfield code="a">emagnd</subfield><subfield code="c">0,20133</subfield><subfield code="d">20231004</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emagnd</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">7\p</subfield><subfield code="a">emagnd</subfield><subfield code="c">0,13683</subfield><subfield code="d">20231004</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emagnd</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">8\p</subfield><subfield code="a">emagnd</subfield><subfield code="c">0,08070</subfield><subfield code="d">20231004</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#emagnd</subfield></datafield></record></collection> |
genre | (DE-588)4113937-9 Hochschulschrift gnd-content |
genre_facet | Hochschulschrift |
id | DE-604.BV049344357 |
illustrated | Not Illustrated |
index_date | 2024-07-03T22:47:49Z |
indexdate | 2024-07-10T10:02:08Z |
institution | BVB |
language | English |
oai_aleph_id | oai:aleph.bib-bvb.de:BVB01-034604851 |
oclc_num | 1401203573 |
open_access_boolean | 1 |
owner | DE-11 |
owner_facet | DE-11 |
physical | 1 Online-Ressource (xxi, 164 Seiten) Illustrationen, Diagramme |
psigel | ebook |
publishDate | 2023 |
publishDateSearch | 2023 |
publishDateSort | 2023 |
record_format | marc |
spelling | Hirsch, Peter Johannes Verfasser (DE-588)1304150593 aut Segmentation and tracking of cells and nuclei using deep learning von Peter Johannes Hirsch, M. Sc. Berlin [2023?] 1 Online-Ressource (xxi, 164 Seiten) Illustrationen, Diagramme txt rdacontent c rdamedia cr rdacarrier Tag der mündlichen Prüfung: 26.05.2023 Der Text enthält eine Zusammenfassung in deutscher und englischer Sprache. Veröffentlichung der elektronischen Ressource auf dem edoc-Server der Humboldt-Universität zu Berlin: 2023 Dissertation Humboldt-Universität zu Berlin 2023 Die Analyse von großen Datensätzen von Mikroskopiebilddaten, insbesondere Segmentierung und Tracking, ist ein sehr wichtiger Aspekt vieler biologischer Studien. Für die leistungsfähige und verlässliche Nutzung ist der derzeitige Stand der Wissenschaft dennoch noch nicht ausreichend. Die vorhandenen Methoden sind oft schwer zu benutzen für ungeübte Nutzer, die Leistung auf anderen Datensätzen ist häufig verbesserungswürdig und sehr große Mengen an Trainingsdaten werden benötigt. Ich ging dieses Problem aus verschiedenen Richtungen an: (i) Ich präsentiere klare Richtlinien wie Artefakte beim Arbeiten mit sehr großen Bilddaten verhindert werden können. (ii) Ich präsentiere eine Erweiterung für eine Reihe von grundlegenden Methoden zur Instanzsegmentierung von Zellkernen. Durch Verwendung einer unterstützenden Hilfsaufgabe ermöglicht die Erweiterung auf einfache und unkomplizierte Art und Weise Leistung auf dem aktuellen Stand der Wissenschaft. Dabei zeige ich zudem, dass schwache Label ausreichend sind, um eine effiziente Objekterkennung auf 3d Zellkerndaten zu ermöglichen. (iii) Ich stelle eine neue Methode zur Instanzsegmentierung vor, die auf eine große Auswahl von Objekten anwendbar ist, von einfachen Formen bis hin zu Überlagerungen und komplexen Baumstrukturen, die das gesamte Bild umfassen. (iv) Auf den vorherigen Arbeiten aufbauend präsentiere ich eine neue Trackingmethode, die auch mit sehr großen Bilddaten zurecht kommt, aber nur schwache und dünnbesetzte Labels benötigt und trotzdem besser als die bisherigen besten Methoden funktioniert. Die Anpassungsfähigkeit an neue Datensätze wird durch eine automatisierte Parametersuche gewährleistet. (v) Für Nutzer, die das Tracking von Objekten in ihrer Arbeit verwenden möchten, präsentiere ich zusätzlich einen detaillierten Leitfaden, der es ihnen ermöglicht fundierte Entscheidungen zu treffen, welche Methode am besten zu ihrem Projekt passt. Englische Version: Image analysis of large datasets of microscopy data, in particular segmentation and tracking, is an important aspect of many biological studies. Yet, the current state of research is still not adequate enough for copious and reliable everyday use. Existing methods are often hard to use, perform subpar on new datasets and require vast amounts of training data. I approached this problem from multiple angles: (i) I present clear guidelines on how to operate artifact-free on huge images. (ii) I present an extension for existing methods for instance segmentation of nuclei. By using an auxiliary task, it enables state-of-the-art performance in a simple and straightforward way. In the process I show that weak labels are sufficient for efficient object detection for 3d nuclei data. (iii) I present an innovative method for instance segmentation that performs extremely well on a wide range of objects, from simple shapes to complex image-spanning tree structures and objects with overlaps. (iv) Building upon the above, I present a novel tracking method that operates on huge images but only requires weak and sparse labels. Yet, it outperforms previous state-of-the-art methods. An automated weight search method enables adaptability to new datasets. (v) For practitioners seeking to employ cell tracking, I provide a comprehensive guideline on how to make an informed decision about what methods to use for their project. 3\p Bildsegmentierung (DE-588)4145448-0 gnd 4\p Maschinelles Lernen (DE-588)4193754-5 gnd 5\p Objekterkennung (DE-588)4314334-9 gnd 6\p Objektverfolgung (DE-588)4311226-2 gnd 7\p Bildverarbeitung (DE-588)4006684-8 gnd 8\p Konturfindung (DE-588)4165186-8 gnd Maschinelles Lernen Bildsegmentierung Objektverfolgung Mikroskopie Zellen machine learning segmentation tracking microscopy cells (DE-588)4113937-9 Hochschulschrift gnd-content Erscheint auch als Hirsch, Peter Johannes Segmentation and tracking of cells and nuclei using deep learning Druck-Ausgabe (DE-604)BV049371876 http://edoc.hu-berlin.de/18452/28131 Verlag kostenfrei Volltext 1\p aepkn 0,76276 20231004 DE-101 https://d-nb.info/provenance/plan#aepkn 2\p emasg 0,57757 20231004 DE-101 https://d-nb.info/provenance/plan#emasg 3\p emagnd 0,30119 20231004 DE-101 https://d-nb.info/provenance/plan#emagnd 4\p emagnd 0,23457 20231004 DE-101 https://d-nb.info/provenance/plan#emagnd 5\p emagnd 0,22487 20231004 DE-101 https://d-nb.info/provenance/plan#emagnd 6\p emagnd 0,20133 20231004 DE-101 https://d-nb.info/provenance/plan#emagnd 7\p emagnd 0,13683 20231004 DE-101 https://d-nb.info/provenance/plan#emagnd 8\p emagnd 0,08070 20231004 DE-101 https://d-nb.info/provenance/plan#emagnd |
spellingShingle | Hirsch, Peter Johannes Segmentation and tracking of cells and nuclei using deep learning 3\p Bildsegmentierung (DE-588)4145448-0 gnd 4\p Maschinelles Lernen (DE-588)4193754-5 gnd 5\p Objekterkennung (DE-588)4314334-9 gnd 6\p Objektverfolgung (DE-588)4311226-2 gnd 7\p Bildverarbeitung (DE-588)4006684-8 gnd 8\p Konturfindung (DE-588)4165186-8 gnd |
subject_GND | (DE-588)4145448-0 (DE-588)4193754-5 (DE-588)4314334-9 (DE-588)4311226-2 (DE-588)4006684-8 (DE-588)4165186-8 (DE-588)4113937-9 |
title | Segmentation and tracking of cells and nuclei using deep learning |
title_auth | Segmentation and tracking of cells and nuclei using deep learning |
title_exact_search | Segmentation and tracking of cells and nuclei using deep learning |
title_exact_search_txtP | Segmentation and tracking of cells and nuclei using deep learning |
title_full | Segmentation and tracking of cells and nuclei using deep learning von Peter Johannes Hirsch, M. Sc. |
title_fullStr | Segmentation and tracking of cells and nuclei using deep learning von Peter Johannes Hirsch, M. Sc. |
title_full_unstemmed | Segmentation and tracking of cells and nuclei using deep learning von Peter Johannes Hirsch, M. Sc. |
title_short | Segmentation and tracking of cells and nuclei using deep learning |
title_sort | segmentation and tracking of cells and nuclei using deep learning |
topic | 3\p Bildsegmentierung (DE-588)4145448-0 gnd 4\p Maschinelles Lernen (DE-588)4193754-5 gnd 5\p Objekterkennung (DE-588)4314334-9 gnd 6\p Objektverfolgung (DE-588)4311226-2 gnd 7\p Bildverarbeitung (DE-588)4006684-8 gnd 8\p Konturfindung (DE-588)4165186-8 gnd |
topic_facet | Bildsegmentierung Maschinelles Lernen Objekterkennung Objektverfolgung Bildverarbeitung Konturfindung Hochschulschrift |
url | http://edoc.hu-berlin.de/18452/28131 |
work_keys_str_mv | AT hirschpeterjohannes segmentationandtrackingofcellsandnucleiusingdeeplearning |