Saat model AI mendekati penalaran seperti manusia, para ahli mendesak adanya jeda untuk mengevaluasi dampaknya pada perilaku dan norma sosial.
Dampak potensial fitur suara realistis OpenAI pada interaksi manusia telah menimbulkan kekhawatiran , dengan perusahaan memperingatkan bahwa orang mungkin membentuk ikatan emosional dengan AI dengan mengorbankan hubungan di dunia nyata. Perusahaan mencatat bahwa pengguna model GPT-4 telah menunjukkan tanda-tanda mengantropomorfiskan AI, mengaitkannya dengan kualitas mirip manusia, yang dapat menyebabkan kepercayaan dan ketergantungan yang salah tempat. Laporan OpenAI menyoroti bahwa interaksi suara berkualitas tinggi dapat memperburuk masalah ini, menimbulkan pertanyaan tentang efek jangka panjang pada norma sosial.
Perusahaan mengamati bahwa beberapa penguji fitur suara AI berinteraksi dengannya dengan cara yang menunjukkan adanya hubungan emosional, seperti mengekspresikan kesedihan di akhir sesi mereka. Meskipun perilaku ini mungkin tampak tidak berbahaya, OpenAI menekankan perlunya mempelajari potensi evolusinya dari waktu ke waktu. Laporan tersebut juga menunjukkan bahwa ketergantungan pada AI untuk interaksi sosial dapat mengurangi kemampuan atau keinginan pengguna untuk terlibat dalam hubungan antarmanusia, sehingga mengubah cara orang berinteraksi satu sama lain.
Kekhawatiran juga muncul mengenai kemampuan AI untuk mengingat detail dan menangani tugas, yang dapat menyebabkan ketergantungan berlebihan pada teknologi tersebut. OpenAI lebih lanjut mencatat bahwa model AI-nya, yang dirancang untuk bersikap hormat dalam percakapan, mungkin secara tidak sengaja mendorong norma antisosial ketika pengguna terbiasa dengan perilaku, seperti menyela, yang tidak pantas dalam interaksi manusia. Perusahaan berjanji untuk terus menguji bagaimana kemampuan suara ini dapat memengaruhi keterikatan emosional dan perilaku sosial.
Masalah ini mendapat perhatian menyusul kontroversi pada bulan Juni ketika OpenAI dikritik karena diduga menggunakan suara yang mirip dengan aktris Scarlett Johansson dalam chatbot-nya. Meskipun perusahaan tersebut membantah bahwa suara itu milik Johansson, insiden tersebut menggarisbawahi risiko yang terkait dengan teknologi kloning suara. Seiring dengan terus berkembangnya model AI menuju penalaran seperti manusia, para ahli semakin mendesak untuk mempertimbangkan implikasi yang lebih luas bagi hubungan manusia dan norma-norma sosial.