top of page

OECD Competition Open Day 2026  — Core Signal: 

AI Regional-Centric Systems for cross-regional trust alignment

Wanice Alfes_OECD_Competition Open Day 2026.jpeg
Panel_OECD_Competition Open Day 2026.jpeg
OECD_Competition Open Day 2026.jpeg

Competition vs. Concentration: The issue is cognitive design misaligment.  

See the Core Signal: Trust is not abstract. It can be engineered for regional sovereignty.

Wanice Alfes

Cyberpsychologist | Human-AI Cognitive Engineering

 

 

At the OECD Competition Open Day 2026,  a structural gap became visible among policymakers, economists, regulators, and industry leaders: is the AI industry becoming more competitive, or is it becoming dominated by a few large players?

The discussion revealed a shift: technical performance is no longer the central issue — interpretation is. 

Across sessions, one pattern persisted: AI systems scale technically, but fail to align across regional meaning systems.

This aligns directly with ViSP-Lab research on human–AI interaction and regional trust engineering — as well as the work of Professor Catherine Tucker (MIT CSAIL), who studies how digital markets operate and the role of human decision-making in AI use.

See her publication: AI and Human Agency — MIT Sloan Management Review. 

ThinkMETA - wanice Alfes - Keynotes & Training .png

Aktuelle Arbeiten zur menschlichen und KI-gestützten Organisationsentwicklung umfassen

 

  • AI Trust in Ethical Interaction Design (MIT)

  • The Concept of E-Governmentality (Harvard)

  • The Global Burden of Mental Illnesses (Harvard)

  • Cybercrime Deviance (FHWien)

Abstracts entdecken

2024: EXPLORING AI-HUMAN TRUST AND ETHICAL INTERACTION DESIGN - A MULTIDISCIPLINARY PERSPECTIVE 
Accolade academic paper at MIT CSAIL


Abstract: This paper brings together the key elements of a career in cyberpsychology and global health, focusing on the crucial issue of trust between humans and AI in healthcare, and its significant impact on user experience design. The discussion will explore how computational models and human behaviour intersect to create intuitive and ethical AI interactions. The need for a user-centric framework for AI interaction design will be highlighted by drawing on insights from cyberpsychology, global health, semiotics, computational social science networks, neuropsychoanalysis, and decision-making neuroscience. Particular attention will be paid to building trust, addressing the privacy paradox, and developing effective multimodal communication systems. By examining the intersection of psychology and technology, this paper will identify strategies for designing ethical and trustworthy AI systems, with a focus on future models of bio-natural interactions, which are especially relevant in critical areas such as healthcare technology and biotechnology, where industry leaders like Lonza in Visp are setting global standards for safe and innovative practices.


 Keywords: AI-human trust, cyberpsychology, ethical design in HCI, user experience (UX), user interface (UI), healthcare technology, mental health, technology democratization. White paper request: alfes@visp.lab.com 

2024: E-GOVERNAMEMNTALITY AND INFLUENCERS AS CHARISMATIC AUTHORITIES 

Accolade academic paper  at Harvard University 

Abstract: In the context of digital transformation, virtual communication has expanded rapidly under prevailing political and economic frameworks that prioritize efficiency, scalability, and cost-effectiveness. These systemic drivers have accelerated innovation and access, while simultaneously reshaping how societies understand autonomy, productivity, and individual responsibility. As digital infrastructures become embedded in everyday life, questions emerge regarding how rationalized systems influence perception, critical reflection, and collective meaning-making. Drawing on perspectives from Foucault and Weber, this discussion considers how contemporary governance models and technological mediation subtly shape behavioral norms, institutional trust, and decision-making processes. Rather than framing this evolution as inherently problematic, the focus lies on understanding its implications for global health systems — particularly how digital convenience, individualization, and performance-oriented metrics interact with psychological well-being and ethical AI implementation.

Keywords: E-Governmentality, Foucault, Biopower, Max Weber, Rationalization, Charismatic Authority, Neoliberalism, Digital Transformation, Cyberpsychology, Critical Theory, Sociology of Technology, Influencer Culture. White paper request: alfes@visp.lab.com.

       ThinkMETA Keynotes & Training

  • The Keynotes & Training are organizational interventions. They are the pillars of Wanice Alfes' first book ThinkMETA, based on the METAP4-Method (from the 4Ps of the medicine), and the AI Regional-Centric System.

 

  • The six critical factors that compose the programs result from corporate experience, and research, particularly at Harvard and MIT CSAIL.

 

  • They are delivered at institutional determination, with  personalized formats according to the organizations' purpose and audience profile under international and ethical standards.

Wanice Alfes .jpeg

Organisations interested in exploring the programmes are welcome to write to Wanice Alfes: alfes@visp-lab.com

2024: THE GLOBAL BURDEN OF MENTAL ILLLNESS

Wissenschaftliche Arbeit am Harvard (mit Auszeichnung bewertet)

 

 

Abstract:  Menschliches Verhalten in digitalen Umgebungen ist komplex und wird stark von den jeweiligen Rahmenbedingungen beeinflusst. Forschung aus der Cyberpsychologie und den Verhaltenswissenschaften zeigt, dass Menschen nicht ohne Grund schädlich handeln oder Risiken eingehen — ihr Verhalten wird durch ihre Interaktionen, die sozialen Regeln, denen sie folgen, sowie durch ihre Fähigkeit zur Selbstregulation von Gedanken und Emotionen geprägt. Theorien zu abweichendem Verhalten, darunter Sozialkontrolltheorie, Strain-Theorie, Lerntheorien und Neutralisationsprozesse, erklären, warum sich Verhalten verändert, wenn soziale Bindungen schwach sind, Menschen überfordert werden oder Institutionen an Einfluss verlieren. In digitalen Systemen können diese Faktoren noch stärkere Auswirkungen entfalten. Geringere soziale Interaktion, Anonymität und algorithmische Einflussnahme können dazu führen, dass Menschen eher Risiken eingehen und Grenzen überschreiten. Dies kann zu einer Zunahme schädlicher Verhaltensweisen führen. Aus organisatorischer Sicht bedeutet dies, den Fokus stärker auf die Gestaltung von Systemen zu richten, anstatt ausschließlich individuelle Probleme zu betrachten. Wenn verstanden wird, wie digitale Umgebungen Verhalten prägen, können Organisationen Risiken schädlicher Handlungen vorhersagen und reduzieren. Die hier vorgestellte Forschung entwickelt einen Rahmen, der Devianztheorie auf reale Anwendungsfelder überträgt. Er unterstützt Organisationen dabei, Risiken zu erkennen, systemische Schwachstellen zu identifizieren und Regeln sowie Interaktionsstrukturen zu gestalten, die schädliches Verhalten von vornherein verhindern. Dieser Ansatz versteht Verhaltensrisiko als etwas, das durch gute Systemgestaltung und Governance gesteuert werden kann — anstatt erst im Nachhinein auf seine Folgen zu reagieren. White-Paper-Anfrage: alfes@visp.lab.com

 

 

Keywords: Global burden of mental illness, Human–AI interaction, AI and mental health, Digital public health, ICT and mental health, AI governance in healthcare, Digital ecosystem risk, Psychosocial vulnerability, Preventive mental health strategies, Human-centered AI systems. White paper request: alfes@visp.lab.com 

 

 

2023: CYBERCRIME CASE ANALYSIS: BEHAVIORAL RISK ARCHITECTURE IN DIGITAL ENVIRONMENTS

Wissenschaftliche Arbeit am FHWien (mit Auszeichnung bewertet)

 

Abstract: Menschliches Verhalten in digitalen Umgebungen ist komplex und stark von den jeweiligen Rahmenbedingungen beeinflusst. Forschung aus der Cyberpsychologie und den Verhaltenswissenschaften zeigt, dass Menschen nicht grundlos schädlich handeln oder Risiken eingehen – ihr Verhalten wird durch ihre Interaktionen, die sozialen Normen, denen sie folgen, sowie durch ihre Fähigkeit zur Selbstregulation von Gedanken und Emotionen geprägt. Theorien abweichenden Verhaltens, darunter Sozialkontrolltheorie, Strain-Theorie, Lerntheorie und Neutralisationsansätze, erklären, warum sich Verhalten verändert, wenn soziale Bindungen geschwächt sind, Menschen überfordert werden oder institutionelle Kontrolle abnimmt. In digitalen Systemen können diese Faktoren noch stärker wirken. Geringere soziale Rückkopplung, Anonymität und algorithmische Einflussmechanismen können dazu beitragen, dass Risiken eher eingegangen und Grenzen häufiger überschritten werden. Dies kann zu einer Zunahme schädlicher Verhaltensmuster führen. Aus organisatorischer Perspektive bedeutet dies, den Fokus stärker auf Systemgestaltung zu richten, anstatt ausschließlich individuelle Problemlagen zu betrachten. Wer versteht, wie digitale Umgebungen Verhalten prägen, kann Risiken frühzeitig erkennen und gezielt reduzieren. Die hier vorgestellte Forschung entwickelt einen Rahmen, der Devianztheorien auf praktische Anwendungsfelder überträgt. Er unterstützt Organisationen dabei, Risiken zu identifizieren, systemische Schwachstellen zu erkennen und Strukturen sowie Interaktionsformen zu gestalten, die schädliches Verhalten präventiv begrenzen. Dieser Ansatz versteht Verhaltensrisiken als steuerbare Größe durch verantwortungsvolle Systemgestaltung und Governance – statt lediglich im Nachhinein auf entstandene Schäden zu reagieren. White-Paper-Anfrage: alfes@visp.lab.com

 

 

Keywords: Cybercrime, Deviance Theory, Criminology, Dark Triad, Control Theory, Strain Theory, Learned Behavior Theory, Neutralization Theory, Cyberpsychology, Criminal Psychology.

bottom of page