<html><head><meta http-equiv="Content-Type" content="text/html; charset=UTF-8" /></head><body style='font-size: 10pt; font-family: Verdana,Geneva,sans-serif'>
<p><strong>*** WORKSHOP ANNOUNCEMENT ***</strong></p>
<p>[Apologies for multiple copies of this announcement]</p>
<p><strong>/***************************************************************************************************</strong></p>
<p><strong>Call for papers: GENEA (Generation and Evaluation of Non-verbal Behaviour for Embodied Agents) Workshop 2023 at ICMI</strong><strong><br /></strong><strong>Date: October 9, 2023</strong></p>
<p><strong>Location: Sorbonne University, Paris, France</strong></p>
<p><strong>Website: </strong><a href="https://genea-workshop.github.io/2023/workshop/"><strong>https://genea-workshop.github.io/2023/workshop/</strong></a><strong> </strong><strong><br /></strong><strong>***************************************************************************************************/</strong><strong><br /></strong><strong>Important dates</strong><strong><br /></strong><strong>*********************</strong></p>
<p><strong>July 19, 2023 - Paper abstract deadline</strong></p>
<p><strong>July 21, 2023 - Paper submission deadline</strong></p>
<p><strong>Aug 4, 2023   - Notification of paper acceptance</strong></p>
<p><strong>Aug 11, 2023 - Deadline for camera-ready papers</strong></p>
<p><strong>Aug 18, 2023 - Poster-session submission deadline</strong></p>
<p><strong>Sep 1, 2023   - Notification of poster acceptance</strong></p>
<p><strong>Oct 9, 2023    - In-person workshop at ICMI</strong></p>
<p><br /><br /></p>
<p><strong>Overview</strong><strong><br /></strong><strong>*********************</strong></p>
<p><span style="font-weight: 400;">GENEA 2023 is the fourth GENEA Workshop and an official workshop of ACM ICMI ’23, which will take place in Paris, France. </span><span style="font-weight: 400;">Accepted paper submissions will be included in the adjunct ACM ICMI proceedings.</span></p>
<p><br /></p>
<p><span style="font-weight: 400;">Generating non-verbal behaviours, such as gesticulation, facial expressions and gaze, is of great importance for natural interaction with embodied agents such as virtual agents and social robots. At present, behaviour generation is typically powered by rule-based systems, data-driven approaches, and their hybrids. For evaluation, both objective and subjective methods exist, but their application and validity are frequently a point of contention.</span></p>
<p><br /></p>
<p><span style="font-weight: 400;">This workshop asks, “What will be the behaviour-generation methods of the future? And how can we evaluate these methods using meaningful objective and subjective metrics?” The aim of the workshop is to bring together researchers working on the generation and evaluation of non-verbal behaviours for embodied agents to discuss the future of this field. To kickstart these discussions, we invite all interested researchers to submit a paper for presentation at the workshop.</span></p>
<p><br /><br /></p>
<p><strong>Paper topics include (but are not limited to) the following</strong><strong><br /></strong><strong>********************</strong></p>
<ul>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Automated synthesis of facial expressions, gestures, and gaze movements</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Audio- and music-driven nonverbal behaviour synthesis</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Closed-loop nonverbal behaviour generation (from perception to action)</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Nonverbal behaviour synthesis in two-party and group interactions</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Emotion-driven and stylistic nonverbal behaviour synthesis</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">New datasets related to nonverbal behaviour</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Believable nonverbal behaviour synthesis using motion-capture and 4D scan data</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Multi-modal nonverbal behaviour synthesis</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Interactive/autonomous nonverbal behavior generation</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Subjective and objective evaluation methods for nonverbal behaviour synthesis</span></li>
<li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Guidelines for nonverbal behaviours in human-agent interaction</span></li>
</ul>
<p><br /><br /></p>
<p><strong>Submission guidelines</strong><strong><br /></strong><strong>*********************</strong></p>
<p><span style="font-weight: 400;">We will accept long (8 pages) and short (4 pages) paper submissions, all in the same double-column ACM conference format as used by ICMI (</span><a href="https://icmi.acm.org/2023/guidelines-for-authors/"><span style="font-weight: 400;">https://icmi.acm.org/2023/guidelines-for-authors/</span></a><span style="font-weight: 400;">). Pages containing only references do not count toward the page limit for any of the paper types. Submissions should be formatted for double-blind review made in PDF format through </span><a href="https://openreview.net/group?id=ACM.org/ICMI/2023/Workshop/GENEA"><span style="font-weight: 400;">OpenReview</span></a><span style="font-weight: 400;">.</span></p>
<p><br /></p>
<p><span style="font-weight: 400;">To encourage authors to make their work reproducible and reward the effort that this requires, we have introduced the </span><a href="https://genea-workshop.github.io/2022/workshop/#reproducibility-award"><span style="font-weight: 400;">GENEA Workshop Reproducibility Award</span></a><span style="font-weight: 400;">.</span></p>
<p><br /></p>
<p><span style="font-weight: 400;">We will also host an open poster session for advertising your late-breaking results and already-published work to the community. No paper submission is needed to participate in the poster session, and these posters will not be part of any proceedings (non archival). Submission guidelines for the poster session will be available on the workshop website.</span></p>
<p><br /><br /></p>
<p><strong>Keynote speakers</strong></p>
<p><span style="font-weight: 400;">********************************</span></p>
<p><span style="font-weight: 400;">Rachel McDonnell, Associate Professor in Creative Technologies, Trinity College Dublin, Ireland</span></p>
<p><span style="font-weight: 400;">Sean Andrist, Senior Researcher at Microsoft Research in Redmond, Washington, USA</span></p>
<p><br /><br /></p>
<p><strong>Organisers</strong></p>
<p><span style="font-weight: 400;">********************************</span></p>
<p><strong>Youngwoo Yoon </strong><span style="font-weight: 400;">ETRI, South Korea, </span><a href="mailto:youngwoo@etri.re.kr"><span style="font-weight: 400;">youngwoo@etri.re.kr</span></a></p>
<p><strong>Taras Kucherenko </strong><span style="font-weight: 400;">SEED, Electronic Arts, Sweden, </span><a href="mailto:tkucherenko@ea.com"><span style="font-weight: 400;">tkucherenko@ea.com</span></a></p>
<p><strong>Pieter Wolfert </strong><span style="font-weight: 400;">Ghent University, Belgium, </span><a href="mailto:pieter.wolfert@ugent.be"><span style="font-weight: 400;">pieter.wolfert@ugent.be</span></a></p>
<p><strong>Rajmund Nagy</strong><span style="font-weight: 400;"> KTH Royal Institute of Technology, Sweden, </span><a href="mailto:rajmundn@kth.se"><span style="font-weight: 400;">rajmundn@kth.se</span></a></p>
<p><strong>Jieyeon Woo</strong><span style="font-weight: 400;"> Sorbonne University, France, </span><a href="mailto:cviegas@andrew.cmu.edu"><span style="font-weight: 400;">woo@isir.upmc.fr</span></a></p>
<p><strong>Gustav Eje Henter </strong><span style="font-weight: 400;">KTH Royal Institute of Technology, Sweden, </span><a href="mailto:ghe@kth.se"><span style="font-weight: 400;">ghe@kth.se</span></a></p>
<p><span style="font-weight: 400;">The main contact address of the workshop is: </span><span style="font-weight: 400;"><a href="mailto:genea-contact@googlegroups.com">genea-contact@googlegroups.com</a> </span></p>
</body></html>
<br>
<hr>
<p>Manage your subscription:</p>

<p>List Subscription Page: https://LISTSERV.ACM.ORG/SCRIPTS/WA-ACMLPX.CGI?SUBED1=ICMI-MULTIMODAL-ANNOUNCE</p>


<p>Unsubscribe: ICMI-MULTIMODAL-ANNOUNCE-signoff-request@LISTSERV.ACM.ORG</p>