Till sidans topp

Sidansvarig: Webbredaktion
Sidan uppdaterades: 2012-09-11 15:12

Tipsa en vän
Utskriftsversion

Interactive visual ground… - Göteborgs universitet Till startsida
Webbkarta
Till innehåll Läs mer om hur kakor används på gu.se

Interactive visual grounding with neural networks

Paper i proceeding
Författare José Miguel Cano Santín
Simon Dobnik
Mehdi Ghanimifard
Publicerad i Proceedings of LondonLogue - Semdial 2019: The 23rd Workshop on the Semantics and Pragmatics of Dialogue
ISSN 2308-2275
Förlag Queen Mary University of London
Förlagsort London, UK
Publiceringsår 2019
Publicerad vid Institutionen för filosofi, lingvistik och vetenskapsteori
Språk en
Länkar semdial.org/anthology/papers/Z/Z19/...
https://semdial2019.github.io/#
https://gup.ub.gu.se/file/207842
https://gup.ub.gu.se/file/207881
Ämnesord grounding, object learning, interactive learning, transfer learning, neural networks
Ämneskategorier Datorlingvistik, Lingvistik, Kognitionsforskning

Sammanfattning

Training strategies for neural networks are not suitable for real time human-robot interaction. Few-shot learning approaches have been developed for low resource scenarios but without the usual teacher/learner supervision. In this work we present a combination of both: a situated dialogue system to teach object names to a robot from its camera images using Matching Networks (Vinyals et al., 2016). We compare the performance of the system with transferred learning from pre-trained models and different conversational strategies with a human tutor.

Sidansvarig: Webbredaktion|Sidan uppdaterades: 2012-09-11
Dela:

På Göteborgs universitet använder vi kakor (cookies) för att webbplatsen ska fungera på ett bra sätt för dig. Genom att surfa vidare godkänner du att vi använder kakor.  Vad är kakor?