Zum Hauptinhalt springen

Deep learning approaches to text production

Narayan, Shashihor ; Gardent, Clairehor
San Rafael, California: Morgan & Claypool, 2020
Buch - 1 PDF (xxiv, 175 pages); illustrations (some color)

Titel:
Deep learning approaches to text production
Autor/in / Beteiligte Person: Narayan, Shashihor ; Gardent, Clairehor
Link:
Reihe: Synthesis lectures on human language technologies 44
Veröffentlichung: San Rafael, California: Morgan & Claypool, 2020
Medientyp: Buch
Umfang: 1 PDF (xxiv, 175 pages); illustrations (some color)
ISBN: 978-1-68173-759-1 (print) ; 978-1-68173-821-5 (print) ; 978-1-68173-760-7 (print) ; 978-1-68173-758-4 (print)
ISSN: 1947-4059 (print)
DOI: 10.2200/S00979ED1V01Y201912HLT044
Schlagwort:
  • Text processing (Computer science)
  • Neural networks (Computer science)
  • Machine learning
  • Artificial intelligence
  • copy
  • coverage
  • AMR generation
  • RDF generation
  • verbalise
  • simplification
  • compression
  • paraphrasing
  • dialogue generation
  • summarisation
  • content selection
  • adequacy
  • input understanding
  • sentence representation
  • document representation
  • communication goals
  • deep generators
  • reinforcement learning
  • evaluation
  • grammatical
  • fluent
  • meaning-preserving
  • BLEU
  • ROUGE
  • relevant
  • coherent
  • text production
  • text generation
  • deep learning
  • neural networks
  • meaning-to-text
  • data-to-text
  • text-to-text
  • recurrent neural networks
  • sequence-to-sequence models
  • attention
  • Electronic books
Sonstiges:
  • Nachgewiesen in: hbz-Verbundkatalog
  • Sprachen: English
  • Contents Note: 1. Introduction -- 1.1. What is text production? -- 1.2. Roadmap -- 1.3. What's not covered? -- 1.4. Our notations ; part I. Basics. 2. Pre-neural approaches -- 2.1. Data-to-text generation -- 2.2. Meaning representations-to-text generation -- 2.3. Text-to-text generation -- 2.4. Summary ; 3. Deep learning frameworks -- 3.1. Basics -- 3.2. The encoder-decoder framework -- 3.3. Differences with pre-neural text-production approaches -- 3.4. Summary ; part II. Neural improvements. 4. Generating better text -- 4.1. Attention -- 4.2. Copy -- 4.3. Coverage -- 4.4. Summary ; 5. Building better input representations -- 5.1. Pitfalls of modelling input as a sequence of tokens -- 5.2. Modelling text structures -- 5.3. Modelling graph structure -- 5.4. Summary ; 6. Modelling task-specific communication goals -- 6.1. Task-specific knowledge for content selection -- 6.2. Optimising task-specific evaluation metric with reinforcement learning -- 6.3. User modelling in neural conversational model -- 6.4. Summary ; part III. Data sets and conclusion. 7. Data sets and challenges -- 7.1. Data sets for data-to-text generation -- 7.2. Data sets for meaning representations to text generation -- 7.3. Data sets for text-to-text generation ; 8. Conclusion -- 8.1. Summarising -- 8.2. Overview of covered neural generators -- 8.3. Two key issues with neural NLG -- 8.4. Challenges -- 8.5. Recent trends in neural NLG
  • Document Type: Monograph
  • File Description: text
  • Language: English

Klicken Sie ein Format an und speichern Sie dann die Daten oder geben Sie eine Empfänger-Adresse ein und lassen Sie sich per Email zusenden.

oder
oder

Wählen Sie das für Sie passende Zitationsformat und kopieren Sie es dann in die Zwischenablage, lassen es sich per Mail zusenden oder speichern es als PDF-Datei.

oder
oder

Bitte prüfen Sie, ob die Zitation formal korrekt ist, bevor Sie sie in einer Arbeit verwenden. Benutzen Sie gegebenenfalls den "Exportieren"-Dialog, wenn Sie ein Literaturverwaltungsprogramm verwenden und die Zitat-Angaben selbst formatieren wollen.

xs 0 - 576
sm 576 - 768
md 768 - 992
lg 992 - 1200
xl 1200 - 1366
xxl 1366 -