liu.seSök publikationer i DiVA
Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • oxford
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Putting a spin on SPINN: Representations of syntactic structure in neural network sentence encoders for natural language inference
Linköpings universitet, Institutionen för datavetenskap, Interaktiva och kognitiva system.
2017 (Engelska)Självständigt arbete på avancerad nivå (masterexamen), 20 poäng / 30 hpStudentuppsats (Examensarbete)
Abstract [en]

This thesis presents and investigates a dependency-based recursive neural network model applied to the task of natural language inference. The dependency-based model is a direct extension of a previous constituency-based model used for natural language inference. The dependency-based model is tested on the Stanford Natural Language Inference corpus and is compared to the previously proposed constituency-based model as well as a recurrent Long-Short Term Memory network. The experiments show that the Long-Short Term Memory outperform both the dependency-based models as well as the constituency-based model. It is also shown that what is to be explicitly represented depends on the model dimensionality that one use. With 50-dimensional models, more explicit representations of the dependency structure provides higher accuracies, and the best dependency-based model performs on par with the LSTM. Higher model dimensionalities seem to favor less explicit representations of the dependency structure. We hypothesize that a smaller dimensionality requires a more explicit representation of the relevant linguistic features of the input, while the explicit representation becomes limiting when a higher model dimensionality is used.

Ort, förlag, år, upplaga, sidor
2017. , s. 28
Nationell ämneskategori
Språkteknologi (språkvetenskaplig databehandling) Människa-datorinteraktion (interaktionsdesign)
Identifikatorer
URN: urn:nbn:se:liu:diva-139229ISRN: LIU-IDA/KOGVET-A--17/003--SEOAI: oai:DiVA.org:liu-139229DiVA, id: diva2:1120398
Ämne / kurs
Kognitionsvetenskap
Handledare
Examinatorer
Tillgänglig från: 2017-07-06 Skapad: 2017-07-06 Senast uppdaterad: 2018-01-13Bibliografiskt granskad

Open Access i DiVA

fulltext(600 kB)104 nedladdningar
Filinformation
Filnamn FULLTEXT01.pdfFilstorlek 600 kBChecksumma SHA-512
2db8cf5de77a6be9a083df7749c91d265edec4db18cc4e3930eff8158d0acb43bd4dc9d0f14fcec7d149c431e5666d9e345564b5b0f3258710cbadcbb188a6b7
Typ fulltextMimetyp application/pdf

Av organisationen
Interaktiva och kognitiva system
Språkteknologi (språkvetenskaplig databehandling)Människa-datorinteraktion (interaktionsdesign)

Sök vidare utanför DiVA

GoogleGoogle Scholar
Totalt: 104 nedladdningar
Antalet nedladdningar är summan av nedladdningar för alla fulltexter. Det kan inkludera t.ex tidigare versioner som nu inte längre är tillgängliga.

urn-nbn

Altmetricpoäng

urn-nbn
Totalt: 853 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • oxford
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf