<div dir="ltr"><div dir="ltr"><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black">Dear Colleague,</span></p><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black"> </span></p><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black">On behalf of the organizing committee, we sincerely invite you to submit papers to the MULEA </span><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black">Workshop (<a href="https://sites.google.com/view/mulea2019/home" target="_blank">https://sites.google.com/view/mulea2019/home</a></span><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black">), in conjunction with ACM Multimedia 2019 (<a href="https://www.acmmm.org/2019/" target="_blank"><span style="color:rgb(149,79,114)">https://www.acmmm.org/2019/</span></a>). We invite you to help define new directions in this broad research area! </span><span style="font-family:Calibri,sans-serif;color:black"></span></p><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black"> </span><span style="font-family:Calibri,sans-serif;color:black"></span></p><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black">The MULEA Workshop and the Conference will be held in France, from 2019/10/21 through 2019/10/25.  The full name of the Workshop is the <b>1st International Workshop on Multimodal Understanding and Learning for Embodied Applications</b>, and it will cover many of the applications in AI, such as robotics, autonomous driving, multimodal <span class="gmail-m_-6245697117363716675gmail-m_-7292345468532578346gmail-m_-1730098757295094460gmail-m_-7425986454417142575gmail-m_-2506446311596900173gmail-m_150841636183829918gmail-m-5440608498079547052gmail-m7205680488748020520gmail-m-7899351978963091985gmail-m-5445316554643037175gmail-m277348895386818713gmail-m-2624452579293729376gmail-spelle">chatbots</span>, or simulated games. It also covers many new and exciting research areas. </span><span style="font-family:Calibri,sans-serif;color:black"></span></p><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black"> </span><span style="font-family:Calibri,sans-serif;color:black"></span></p><p class="MsoNormal" style="text-align:justify"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black"><b>Paper submission deadline: July 17, 2019.</b> T</span><span style="color:rgb(33,33,33);font-family:Lato,sans-serif;font-size:15px">his inter-disciplinary</span><font color="#212121" face="Lato, sans-serif"><span style="font-size:15px"> Workshop has considerable breadth and diversity, across several research fields, including language, vision, robotics, etc. We therefore </span></font><span style="color:rgb(0,0,0);font-family:Calibri,sans-serif;font-size:14.666666984558105px">encourage 2-page Abstracts and Cross-Submissions, </span><font color="#212121" face="Lato, sans-serif"><span style="font-size:15px">i</span></font><font color="#000000" face="Calibri, sans-serif"><span style="font-size:11pt">n addition to regular papers. Please refer to the Workshop website.</span><span style="font-size:11pt"> The topics of the workshop include but are not limited to:</span></font></p><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black"> </span><span style="font-family:Calibri,sans-serif;color:black"></span></p><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black">1. Multimodal context understanding.  Context include environment, task/goal states, dynamic objects of the scene, activities, etc. Relevant research streams include visually grounded learning, context understanding, and environmental modeling which includes 3D environment modeling and understanding. Language grounding is also an interesting topic. Connecting the vision and language modalities is essential in applications such as question answering and image captioning. Other relevant research areas include multimodal understanding, context modeling, and grounded dialog systems. </span><span style="font-family:Calibri,sans-serif;color:black"></span></p><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black"> </span><span style="font-family:Calibri,sans-serif;color:black"></span></p><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black">2. Knowledge inference. Knowledge in this multimedia scenario is represented with knowledge graph, scene graph, memory, etc.  Representing contextual knowledge is a topic that has attracted much interest, and goal-driven knowledge representation and reasoning are also new research directions. Deep learning methods are good options to deal with unstructured multimodal knowledge signals. </span><span style="font-family:Calibri,sans-serif;color:black"></span></p><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black"> </span><span style="font-family:Calibri,sans-serif;color:black"></span></p><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black">3. Embodied learning. Building on context understanding and knowledge representation, the policy generates actions for intelligent agents to achieve goals or finish tasks. The input signals are multimodal and can be images or dialogs etc., and the learning policies not only need to provide short-term reactions, but also need to plan its actions to optimally finish the long-term goals. The actions may involve navigation and localizations as well, which are mainstream in the robotics and self-driving vehicle fields. This is relevant to reinforcement learning, and the algorithms are driven by multiple industrial applications in robotics, self-driving vehicles, simulated games, multimodal <span class="gmail-m_-6245697117363716675gmail-m_-7292345468532578346gmail-m_-1730098757295094460gmail-m_-7425986454417142575gmail-m_-2506446311596900173gmail-m_150841636183829918gmail-m-5440608498079547052gmail-m7205680488748020520gmail-m-7899351978963091985gmail-m-5445316554643037175gmail-m277348895386818713gmail-m-2624452579293729376gmail-spelle">chatbots</span>, etc.</span><span style="font-family:Calibri,sans-serif;color:black"></span></p><p class="MsoNormal"><span style="font-family:Calibri,sans-serif;color:black"> </span></p><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black">Please feel free to forward to colleagues who might be interested. If there are suggestions or comments, those will be welcome and appreciated! We are sorry if you receive duplicate copies of this email.   </span><span style="font-family:Calibri,sans-serif;color:black"></span></p><p class="MsoNormal"><span style="font-family:Calibri,sans-serif;color:black"> </span></p><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black">Best Regards,</span><span style="font-family:Calibri,sans-serif;color:black"></span></p><p class="MsoNormal"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:black">-John and Tim (Co-Chairs)</span></p></div></div>