liu.seSök publikationer i DiVA
Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • oxford
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Fast and Scalable Score-Based Kernel Calibration Tests
University College London, Gatsby Computational Neuroscience Unit, London, UK.
Uppsala universitet, Avdelningen för systemteknik.ORCID-id: 0000-0001-9282-053x
Linköpings universitet, Institutionen för datavetenskap, Statistik och maskininlärning. Linköpings universitet, Tekniska fakulteten.ORCID-id: 0000-0003-3749-5820
University College London, Gatsby Computational Neuroscience Unit, London, UK.
2023 (Engelska)Ingår i: Thirty-Ninth Conference on Uncertainty in Artificial Intelligence: PMLR 216, JMLR-JOURNAL MACHINE LEARNING RESEARCH , 2023, Vol. 216, s. 691-700Konferensbidrag, Publicerat paper (Refereegranskat)
Abstract [en]

We introduce the Kernel Calibration Conditional Stein Discrepancy test (KCCSD test), a non-parametric, kernel-based test for assessing the calibration of probabilistic models with well-defined scores. In contrast to previous methods, our test avoids the need for possibly expensive expectation approximations while providing control over its type-I error. We achieve these improvements by using a new family of kernels for score-based probabilities that can be estimated without probability density samples, and by using a conditional goodness-of-fit criterion for the KCCSD test’s U-statistic. The tractability of the KCCSD test widens the surface area of calibration measures to new promising use-cases, such as regularization during model training. We demonstrate the properties of our test on various synthetic settings.

Ort, förlag, år, upplaga, sidor
JMLR-JOURNAL MACHINE LEARNING RESEARCH , 2023. Vol. 216, s. 691-700
Nationell ämneskategori
Sannolikhetsteori och statistik Datavetenskap (datalogi)
Identifikatorer
URN: urn:nbn:se:liu:diva-204029ISI: 001222701100065OAI: oai:DiVA.org:liu-204029DiVA, id: diva2:1863823
Konferens
39th Conference on Uncertainty in Artificial Intelligence (UAI), Pittsburgh, PA, JUL 31-AUG 04, 2023.
Anmärkning

Funding Agencies|Centre for Interdisciplinary Mathematics (CIM) at Uppsala University, Sweden; Swedish Research Council [621-2016-06079]; Kjell och Marta Beijer Foundation; Gatsby Charitable Foundation

Tillgänglig från: 2024-06-01 Skapad: 2024-06-01 Senast uppdaterad: 2024-09-06Bibliografiskt granskad

Open Access i DiVA

Fulltext saknas i DiVA

Övriga länkar

Förlagets fulltext/Publisher's full text

Person

Widmann, DavidLindsten, Fredrik

Sök vidare i DiVA

Av författaren/redaktören
Widmann, DavidLindsten, Fredrik
Av organisationen
Statistik och maskininlärningTekniska fakulteten
Sannolikhetsteori och statistikDatavetenskap (datalogi)

Sök vidare utanför DiVA

GoogleGoogle Scholar

urn-nbn

Altmetricpoäng

urn-nbn
Totalt: 87 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • oxford
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf