<div dir="ltr">Theme Section on Trust and AI<br>ACM Transactions on Internet Technology (TOIT) <br><a href="https://toit.acm.org/pdf/ACM-ToIT-CfP-Trust.pdf">https://toit.acm.org/pdf/ACM-ToIT-CfP-Trust.pdf</a><br><br>Trust is critical in building effective AI systems. It <br>characterizes the elements that are essential in social <br>reliability, whether this be in human-agent interaction, or <br>how autonomous agents make decisions about the selection <br>of partners and coordinate with them. Many computational <br>and theoretical trust models and approaches to reputation <br>have been developed using AI techniques over the past <br>twenty years. However, some principal issues are yet to <br>be addressed, including bootstrapping; causes and <br>consequences of trust; trust propagation in heterogeneous <br>systems where agents may use different assessment <br>procedures; group trust modelling and assessment; <br>trust enforcement; trust and risk analysis, etc.<br> <br>Increasingly, there is also a need to understand how <br>human users trust AI systems that have been designed to <br>act on their behalf. This trust can be engendered through <br>effective transparency and lack of bias, as well as <br>through successful attention to user needs. <br><br>The aim of this special section is to bring together world-<br>leading research on issues related to trust and artificial <br>intelligence. We invite the submission of novel research <br>in multiagent trust modelling, assessment and enforcement, <br>as well as in how to engender trust in and transparency <br>of AI systems from a human perspective. <br><br>The scope of the theme includes:<br><br>Trust in Multi-Agent Systems: <br>- socio-technical systems and organizations; <br>- service-oriented architectures; <br>- social networks; <br>- adversarial environments<br><br>Trustworthy AI Systems: <br>- detecting and addressing bias and improving fairness; <br>- trusting automation for competence; <br>- understanding and modelling user requirements; <br>- improving transparency and explainability; <br>- accountability and norms<br><br>AI for combating misinformation: <br>- detecting and preventing deception and fraud; <br>- intrusion resilience in trusted computing; <br>- online fact checking and critical thinking;<br>- detecting and preventing collusion<br><br>Modelling and Reasoning: <br>- game-theoretic models of trust; <br>- socio-cognitive models of trust; <br>- logical representations of trust; <br>- norms and accountability;<br>- reputation mechanisms; <br>- risk-aware decision making<br><br><br>Real-world Applications: <br>- e-commerce; <br>- security; <br>- IoT;<br>- health; <br>- advertising; <br>- government<br><br><br>Theme Editors<br><br>Jie Zhang<br>Nanyang Technological University<br><a href="mailto:zhangj@ntu.edu.sg">zhangj@ntu.edu.sg</a><br><a href="http://www.ntu.edu.sg/home/zhangj/">http://www.ntu.edu.sg/home/zhangj/</a><br><br>Jamal Bentahar<br>Concordia University<br><a href="mailto:bentahar@ciise.concordia.ca">bentahar@ciise.concordia.ca</a><br><a href="https://users.encs.concordia.ca/~bentahar/">https://users.encs.concordia.ca/~bentahar/</a><br><br>Rino Falcone<br>ISTC-CNR<br><a href="mailto:rino.falcone@istc.cnr.it">rino.falcone@istc.cnr.it</a><br><a href="http://www.istc.cnr.it/people/rino-falcone">http://www.istc.cnr.it/people/rino-falcone</a><br><br>Timothy J. Norman<br>University of Southampton<br><a href="mailto:t.j.norman@soton.ac.uk">t.j.norman@soton.ac.uk</a><br><a href="https://www.ecs.soton.ac.uk/people/tjn1f15">https://www.ecs.soton.ac.uk/people/tjn1f15</a><br><br>Murat Sensoy<br>Ozyegin University<br><a href="mailto:murat.sensoy@ozyegin.edu.tr">murat.sensoy@ozyegin.edu.tr</a><br><a href="https://faculty.ozyegin.edu.tr/muratsensoy/">https://faculty.ozyegin.edu.tr/muratsensoy/</a><br><br><br>Deadlines<br><br>Submissions: November 1, 2018<br>Preliminary decisions: January 15, 2019<br>Revisions: April 1, 2019<br>Final decisions: May 15, 2019<br>Final versions: June 15, 2019<br>Publication date: Fall 2019<br><br><br>Submission<br><br>To submit a paper, please follow the standard instructions: <br><a href="http://toit.acm.org/submission.html">http://toit.acm.org/submission.html</a><br>Please select "Theme Section: Trust and AI" in the Manuscript Central website<br>Contact Email Address: <a href="mailto:trustai.toit@gmail.com">trustai.toit@gmail.com</a><br><br></div>