A Zoom azóta kacérkodik az érzelmi mesterséges intelligencia koncepciójával, amióta a világjárvány hátszelével magasra emelkedett. Egy ideje tudott már, hogy az Intel egy e-learning szoftvercéggel együtt dolgozik egy olyan érzelemelemelemző program kifejlesztésén, amely a Zoomhoz illeszkedik. Ez az alkalmazás állítólag a tanárok hasznára válna azzal, hogy jelezné nekik, ha a diákok nem értik, hogy miről van szó, vagy unatkoznak. Ez lehetővé tenné számukra, hogy személyre szabják az oktatást és növeljék az elkötelezettséget.
A Protocol áprilisban arról számolt be, hogy a vállalatok elkezdték használni az érzelem-alapú mesterséges intelligenciát az értékesítési hívások során, hogy felmérjék a potenciális ügyfelek hangulatát, és ennek megfelelően változtassanak a stratégiájukon. Ehhez minden ügyfelet a tudtán kívül egy "érzelmi értékelőlapon" osztályoznak a hívás során.
A digitális jogokkal foglalkozó Fight for the Future nonprofit szervezet amint tudomást szerzett a Protocol jelentéséről, más jogvédők, köztük az American Civil Liberties Union (ACLU), az Access Now, a Jobs With Justice és 24 másik emberi jogi csoport társaságában aláírta a Zoomnak címzett nyílt levelet, amely arra kéri Eric Yuan vezérigazgatót, a Zoom alapítóját, hogy törölje a vállalat érzelmi mesterséges intelligencia bevezetésére vonatkozó terveit, mondván, hogy a technológia büntető, manipulatív, diszkriminatív, áltudományban gyökerezik, és kockázatot jelent az adatok integritására.
Azt írják: "Ez az érzelmi adatpontok bányászására irányuló lépés, amely azon a hamis elképzelésen alapul, hogy a mesterséges intelligencia nyomon követheti és elemezheti az emberi érzelmeket, sérti a magánéletet és az emberi jogokat. A zoomnak le kell állítania a terveket a funkció fejlesztéséhez."
A nyílt levél nem az első, amely az érzelmi mesterséges intelligenciát kritizálja. Sokan azt mondták, hogy a technológia túlzott megfigyelésnek minősül, különösen akkor, ha a megcélzott diákok vagy ügyfelek tudtán kívül értékelik a testbeszédüket, hangszínüket és más állítólagos érzelmi markereiket. Mások szerint az érzelmi mesterséges intelligencia végül negatív (vagy egyszerűen téves) elemzéseket adhat olyan emberekről, akiknek a kultúrája másképp fejezi ki az érzelmeket.
Az érdekvédelmi csoportok levele azzal zárul, hogy emlékeztetik Yuant, cége korábban "olyan döntéseket hozott, amelyek a felhasználók jogait állították a középpontba", például adatvédelmi aggályok miatt visszavonta az arckövetési funkciók bevezetéséről szóló döntését. "Ez egy újabb lehetőség, hogy megmutassa, törődik a felhasználóival és a hírnevével. Világossá teheti, hogy ennek a technológiának nincs helye a videokommunikációban" - írják a szervezetek.