liu.seSök publikationer i DiVA
Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • oxford
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Learning Representations with Contrastive Self-Supervised Learning for Histopathology Applications
Linköpings universitet, Institutionen för teknik och naturvetenskap, Medie- och Informationsteknik. Linköpings universitet, Tekniska fakulteten. Sectra AB, Sweden.ORCID-id: 0000-0003-1066-3070
Linköpings universitet, Institutionen för teknik och naturvetenskap, Medie- och Informationsteknik. Linköpings universitet, Tekniska fakulteten. Linköpings universitet, Centrum för medicinsk bildvetenskap och visualisering, CMIV.ORCID-id: 0000-0002-7765-1747
Linköpings universitet, Institutionen för teknik och naturvetenskap, Medie- och Informationsteknik. Linköpings universitet, Tekniska fakulteten. Linköpings universitet, Centrum för medicinsk bildvetenskap och visualisering, CMIV. Sectra AB, Sweden.ORCID-id: 0000-0002-9368-0177
Linköpings universitet, Institutionen för teknik och naturvetenskap, Medie- och Informationsteknik. Linköpings universitet, Tekniska fakulteten. Linköpings universitet, Centrum för medicinsk bildvetenskap och visualisering, CMIV.ORCID-id: 0000-0002-9217-9997
2022 (Engelska)Ingår i: The Journal of Machine Learning for Biomedical Imaging, E-ISSN 2766-905X, Vol. 1, artikel-id 023Artikel i tidskrift (Övrigt vetenskapligt) Published
Abstract [en]

Unsupervised learning has made substantial progress over the last few years, especially by means of contrastive self-supervised learning. The dominating dataset for benchmarking self-supervised learning has been ImageNet, for which recent methods are approaching the performance achieved by fully supervised training. The ImageNet dataset is however largely object-centric, and it is not clear yet what potential those methods have on widely different datasets and tasks that are not object-centric, such as in digital pathology.While self-supervised learning has started to be explored within this area with encouraging results, there is reason to look closer at how this setting differs from natural images and ImageNet. In this paper we make an in-depth analysis of contrastive learning for histopathology, pin-pointing how the contrastive objective will behave differently due to the characteristics of histopathology data. Using SimCLR and H&E stained images as a representative setting for contrastive self-supervised learning in histopathology, we bring forward a number of considerations, such as view generation for the contrastive objectiveand hyper-parameter tuning. In a large battery of experiments, we analyze how the downstream performance in tissue classification will be affected by these considerations. The results point to how contrastive learning can reduce the annotation effort within digital pathology, but that the specific dataset characteristics need to be considered. To take full advantage of the contrastive learning objective, different calibrations of view generation and hyper-parameters are required. Our results pave the way for realizing the full potential of self-supervised learning for histopathology applications. Code and trained models are available at https://github.com/k-stacke/ssl-pathology.

Ort, förlag, år, upplaga, sidor
Melba (The Journal of Machine Learning for Biomedical Imaging) , 2022. Vol. 1, artikel-id 023
Nationell ämneskategori
Medicinsk bildvetenskap
Identifikatorer
URN: urn:nbn:se:liu:diva-189163OAI: oai:DiVA.org:liu-189163DiVA, id: diva2:1702938
Tillgänglig från: 2022-10-12 Skapad: 2022-10-12 Senast uppdaterad: 2025-02-09

Open Access i DiVA

fulltext(26972 kB)482 nedladdningar
Filinformation
Filnamn FULLTEXT01.pdfFilstorlek 26972 kBChecksumma SHA-512
8ea54e7a40405e797a89658ea98bc6d587f9e453a51f2378f078e67b20a768c6079b170ddcd032cd2c1534dfea78a671d9ba3eadc45097ce61e616ad92eb65e7
Typ fulltextMimetyp application/pdf

Övriga länkar

Publisher´s full text

Person

Stacke, KarinUnger, JonasLundström, ClaesEilertsen, Gabriel

Sök vidare i DiVA

Av författaren/redaktören
Stacke, KarinUnger, JonasLundström, ClaesEilertsen, Gabriel
Av organisationen
Medie- och InformationsteknikTekniska fakultetenCentrum för medicinsk bildvetenskap och visualisering, CMIV
Medicinsk bildvetenskap

Sök vidare utanför DiVA

GoogleGoogle Scholar
Totalt: 482 nedladdningar
Antalet nedladdningar är summan av nedladdningar för alla fulltexter. Det kan inkludera t.ex tidigare versioner som nu inte längre är tillgängliga.

urn-nbn

Altmetricpoäng

urn-nbn
Totalt: 647 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • oxford
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf