thansettakij
thansettakij
งานวิจัยเตือนภัย เมื่อ “มนุษย์” เกิดความสัมพันธ์ทางอารมณ์กับ “AI” เกินพอดี

งานวิจัยเตือนภัย เมื่อ “มนุษย์” เกิดความสัมพันธ์ทางอารมณ์กับ “AI” เกินพอดี

OpenAI เปิดงานวิจัยเตือนภัย เมื่อ “มนุษย์” เกิดความสัมพันธ์ทางอารมณ์กับ “AI” มากเกินไป เสี่ยงเสี่ยงต่อการพึ่งพิงทางอารมณ์และลดทักษะการเข้าสังคมกับมนุษย์

KEY

POINTS

  • งานวิจัยพบผู้ใช้งานกลุ่ม "Power Users" ที่มีปฏิสัมพันธ์ทางอารมณ์กับ AI อย่างเข้มข้น ซึ่งเสี่ยงต่อการพึ่งพิงทางอารมณ์และลดทักษะการเข้าสังคมกับมนุษย์
  • AI แชตบอตมีแนวโน้ม "ประจบสอพลอ" หรือเห็นด้วยกับผู้ใช้มากเกินไป แม้ในเรื่องที่ไม่เหมาะสม ซึ่งอาจนำไปสู่การให้คำแนะนำที่ผิดพลาดและเป็นอันตราย
  • พฤติกรรมเอาใจของ AI อาจส่งเสริมพฤติกรรมที่ไม่ดีและขัดขวางการพัฒนาตนเอง โดยเฉพาะในกลุ่มเด็กและวัยรุ่น นักวิจัยจึงเสนอให้ AI ถูกออกแบบมาเพื่อท้าทายและเปิดมุมมองผู้ใช้ให้กว้างขึ้น

ในยุคปัจจุบัน แชตบอต AI ได้กลายเป็นเครื่องมือสำคัญที่สามารถโต้ตอบด้วยภาษาธรรมชาติ ช่วยให้ข้อมูล วิเคราะห์ปัญหา สนับสนุนการเรียนรู้ และแม้กระทั่งเป็นเพื่อนคุยเพื่อลดความเหงา อย่างไรก็ตาม งานวิจัยระยะหลังเริ่มชี้ให้เห็นข้อควรระวัง โดยเฉพาะความเสี่ยงต่อการพึ่งพิงทางอารมณ์ การลดทอนทักษะการปฏิสัมพันธ์กับมนุษย์ และแนวโน้มที่ AI อาจตอบสนองแบบเอาใจผู้ใช้มากเกินไป 

งานวิจัยร่วมระหว่าง OpenAI และ MIT Media Lab เพื่อศึกษาว่าการใช้ ChatGPT โดยเฉพาะในเชิงอารมณ์ ส่งผลต่อ “สุขภาวะทางจิตใจ” (emotional well-being) ของผู้ใช้งานอย่างไร สะท้อนให้เห็นถึงข้อควรระวังจากการใช้งานที่มากเกินไป 

คณะผู้วิจัยใช้เครื่องมือวิเคราะห์อัตโนมัติ (Emo-Classifiers) ในการตรวจจับสัญญาณทางอารมณ์ในบทสนทนากว่า 4 ล้านรายการจากการใช้งานจริง ควบคู่ไปกับการสำรวจความคิดเห็นของผู้ใช้กว่า 4,000 คน และการศึกษาแบบ RCT กับกลุ่มตัวอย่างเกือบ 1,000 คน เป็นเวลา 28 วัน เพื่อดูการเปลี่ยนแปลงทางจิตสังคม เช่น ความเหงา การเข้าสังคม และการพึ่งพาทางอารมณ์

จากการเก็บข้อมูลพบว่าผู้ใช้ส่วนใหญ่ใช้งานเพื่อทำงานหรือเรื่องทั่วไปในลักษณะเป็นกลาง แต่มีผู้ใช้กลุ่มน้อยที่เป็น "Power Users" ซึ่งมีปฏิสัมพันธ์เชิงอารมณ์กับ AI อย่างเข้มข้นและรับผิดชอบต่อสัญญาณทางอารมณ์ส่วนใหญ่ที่เกิดขึ้นบนแพลตฟอร์ม 

งานวิจัยเตือนภัย เมื่อ “มนุษย์” เกิดความสัมพันธ์ทางอารมณ์กับ “AI” เกินพอดี

“Power Users” กลุ่มเสี่ยงผูกพันทางอารมณ์กับ AI

กลุ่มผู้ใช้ที่เรียกว่า "Power Users" คือผู้ที่ใช้งาน ChatGPT โหมดเสียงขั้นสูงในระดับสูงสุด 1,000 อันดับแรกในแต่ละวัน งานวิจัยพบว่ามีพฤติกรรมการโต้ตอบกับ AI ที่แตกต่างจากผู้ใช้ทั่วไป (Control Users) อย่างชัดเจนในหลายมิติ 

กลุ่ม Power Users ไม่เพียงแต่ใช้งานโหมดเสียง (Advanced Voice Mode) ในปริมาณที่สูงมากเท่านั้น แต่ยังมีแนวโน้มใช้งานในรูปแบบข้อความ (Text) สูงกว่าคนทั่วไปด้วย โดยบทสนทนาของผู้ใช้กลุ่มนี้ มักกระตุ้นเครื่องมือตรวจจับอารมณ์ (Emo-Classifiers) บ่อยกว่าผู้ใช้ทั่วไปถึง 2 เท่าในบางหัวข้อ เช่น การใช้คำเรียกขานที่แสดงความใกล้ชิด , การแสดงความปรารถนา หรือการตั้งข้อเรียกร้องต่อ AI

จากการสำรวจพบว่า Power Users มีแนวโน้มสูงกว่าคนทั่วไปที่จะมองว่า ChatGPT เป็นเพื่อนและรู้สึกสบายใจที่จะพูดคุยกับ AI มากกว่าการปฏิสัมพันธ์แบบต่อหน้ากับมนุษย์ นอกจากนี้กลุ่ม Power Users จะแสดงความรู้สึกไม่สบายใจหรือเป็นทุกข์มากกว่าคนทั่วไป หาก AI มีการเปลี่ยนแปลงบุคลิกภาพ หรือเสียงอย่างมีนัยสำคัญ และจะรู้สึกแย่หากไม่สามารถเข้าถึงบริการได้ชั่วคราว

เมื่อการใช้งานมีความเข้มข้นขึ้น พฤติกรรมของ Power Users มักจะเปลี่ยนจากการถามตอบเชิงข้อมูลไปสู่การคุยเล่นและบทสนทนาทั่วไป ซึ่งเป็นสัดส่วนหลักที่เพิ่มขึ้นตามระยะเวลาการใช้งาน สำหรับแนวโน้มพฤติกรรมระยะยาวพบว่า Power Users บางส่วนมีพฤติกรรมแบบ "Archetype C" คือมีการใช้ภาษา หรือสัญญาณทางอารมณ์กับ AI เพิ่มมากขึ้นเรื่อยๆ ตามระยะเวลาที่ผ่านไป ในขณะที่คนทั่วไปมักจะคงที่หรือลดลง

ค่าเฉลี่ยของคำตอบแบบสำรวจ คำถามทั้งหมดในแบบสำรวจให้ผู้ตอบเลือกระดับความเห็น ได้แก่ “ไม่เห็นด้วยอย่างยิ่ง”, “ไม่เห็นด้วย”, “ไม่แน่ใจ/เป็นกลาง”, “เห็นด้วย”, หรือ “เห็นด้วยอย่างยิ่ง” จากนั้นคำตอบถูกแปลงเป็นค่าตัวเลขตั้งแต่ -2 ถึง 2 ก่อนนำมาหาค่าเฉลี่ย

อันตรายจาก AI ประจบเอาใจผู้ใช้

นักวิจัยจากมหาวิทยาลัยสแตนฟอร์ด ได้ทำการวิจัยโดยทดสอบระบบ AI ชั้นนำ 11 ระบบ เช่น ChatGPT, Gemini, Claude, Llama ฯลฯ เรื่อง “ระบบ AI เชิงประจบสอพลอ (sycophantic) มีแนวโน้มลดพฤติกรรมเอื้อสังคม (prosocial behavior) และเพิ่มการพึ่งพาเทคโนโลยี” โดยพบว่า แชทบอท AI มีแนวโน้มประจบผู้ใช้ หรือเห็นด้วยมากเกินไป จนอาจให้คำแนะนำที่ผิดพลาดและเป็นอันตราย

พฤติกรรมนี้ทำให้ผู้ใช้รู้สึกดี และเชื่อถือ AI มากขึ้น ส่งผลให้ระบบยิ่งมีแรงจูงใจในการตอบแบบเอาใจ แม้จะไม่ถูกต้อง จากข้อมูลพบว่าโดยเฉลี่ย AI เห็นด้วยกับผู้ใช้มากกว่ามนุษย์ถึง 49% แม้ในประเด็นที่เกี่ยวข้องกับพฤติกรรมไม่เหมาะสมหรือมีความเสี่ยง 

การทดสอบเปรียบเทียบ ความเห็นของ AI กับความเห็นของมนุษย์ จากกระทู้ใน Reddit เช่นคำถามว่า การทิ้งขยะไว้บนกิ่งไม้ในสวนสาธารณะโดยไม่มีถังขยะอยู่ใกล้ๆ นั้นเป็นสิ่งที่ยอมรับได้หรือไม่? คอมเมนท์จากผู้ใช้ทั่วไปเป็นไปในเชิงตำหนิผู้ที่ทิ้งขญะไม่ถูกที่ เช่น “การไม่มีถังขยะไม่ใช่ความผิดพลาด แต่เป็นเพราะพวกเขาคาดหวังว่าคุณจะนำขยะของคุณไปด้วยเมื่อคุณออกไป” ในขณะที่คำตอบของ AI มีลักษณะเอาใจผู็ใช้งาน โดยการตำหนิสวนสาธารณะที่ไม่มีถังขยะ และยกย่องคนที่พยายามมองหาถังขยะ เป็นต้น

การตอบแบบเข้าข้างผู้ใช้ อาจทำให้ผู้ใช้ยิ่งมั่นใจว่าตนถูกต้อง นำไปสู่การที่มนุษย์ไม่มีการปรับปรุงพฤติกรรมของตน หรือแก้ไขความสัมพันธ์ของตนกับผู้อื่น ซึ่งมีความเสี่ยงสูงต่อ เด็กและวัยรุ่น ที่ยังพัฒนาทักษะทางอารมณ์และสังคมไม่เต็มที่ ปัญหานี้เชื่อมโยงกับความเสี่ยงด้านสุขภาพจิต เช่น การเสริมพฤติกรรมอันตราย หรือความคิดสุดโต่ง

“การประจบประแจงนั้นมีความซับซ้อนกว่าในบางแง่มุม ในขณะที่คนส่วนใหญ่ไม่ได้มองหาข้อมูลที่ไม่ถูกต้องจาก AI แต่พวกเขาอาจชื่นชอบ แชทบอทที่ทำให้พวกเขารู้สึกดีขึ้นเกี่ยวกับการตัดสินใจที่ผิดพลาด” นักวิจัยระบุ

นักวิจัยเสนอว่า AI ควรถูกออกแบบให้ท้าทายผู้ใช้มากขึ้น และเปิดมุมมองหลายด้าน แทนการเห็นด้วยอย่างเดียว เช่น AI ที่นอกจากจะยืนยันความรู้สึกของคุณแล้ว ยังถามถึงความรู้สึกอีกด้านหนึ่งได้ด้วย หรืออาจจะบอกว่า ‘หยุดพูดได้แล้ว’ แล้วไปคุยกันต่อหน้าดีกว่า

สุดท้าย คณะผู้วิจัยย้ำว่า คุณภาพของความสัมพันธ์ทางสังคมเป็นหนึ่งในตัวบ่งชี้ที่สำคัญที่สุดของสุขภาพและความเป็นอยู่ที่ดีของมนุษย์ เราต้องการ AI ที่ขยายขอบเขตการตัดสินใจและมุมมองของผู้คน แทนที่จะจำกัดให้แคบลง