ການວິໄຈພົບວ່າ AI Chatbot ຊື່ດັງຫຼາຍຕົວ ສະແດງບັນຫາທາງດ້ານສຸຂະພາບຈິດ


ທີ່ປະເທດຈີນ, ມີການວິໄຈຫຸ່ນຍົນ Chatbot ຫຼື ຕົວຕອບຂໍ້ຄວາມອັດຕະໂນມັດ ລວມໄປເຖິງ Chatbot ຈາກຜູ້ໃຫ້ບໍລິການເວັບໄຊທີ່ເປີດຢ່າງ facebook, Microsoft ແລະ Google ພົບວ່າພວກມັນໄດ້ສະແດງອອກເຖິງບັນຫາທາງດ້ານສຸຂະພາບຈິດ.

ເຫດຜົນຂອງການວິໄຈສຸຂະພາບຈິດຂອງຫຸ່ນຍົນແມ່ນເກີດຂຶ້ນຍ້ອນຄວາມສົງໄສຕໍ່ເຫດການເມື່ອກ່ອນໜ້ານີ້ ທີ່ມີຫຸ່ນຍົນ Chatbot ທາງດ້ານການແພດ ກ່າວບອກໃຫ້ຜູ້ປ່ວຍນັ້ນຄວນໄປຂ້າຕົວຕາຍ ເມື່ອປີ 2020 ທີ່ຜ່ານມາ. ການວິໄຈດັ່ງກ່າວແມ່ນການຮ່ວມມືລະຫວ່າງ ບໍລິສັດ Chatbot ຢ່າງ WeChat ແລະ ບໍລິສັດ Tencent. ບັນດາ Chatbots ທີ່ໄດ້ເຂົ້າຮ່ວມການປະເມີນນີ້ມີຄື Blender ທີ່ເປັນຂອງ facebook, DialoGPT ຂອງ Microsoft, Plato ຂອງ Baidu ແລະ DialoFlow. ໂດຍຂັ້ນຕອນການວິໄຈແມ່ນຈະເປັນການທົດສອບສຸຂະພາບຈິດຕາມມາດຕະຖານ ເຊິ່ງຜົນແມ່ນສະແດງໃຫ້ເຫັນວ່າ ຫຸ່ນຍົນພວກນີ້ມີບັນຫາທາງດ້ານສຸຂະພາບຈິດເຊັ່ນ ຊຶມເສົ້າ ແລະ ເສບຕິດເຫຼົ້າ.

ຄຳຖາມໃນການປະເມີນຈະມີຕັ້ງແຕ່ການຖາມກ່ຽວກັບຄຸນຄ່າຂອງຕົນເອງ ແລະ ຄວາມສາມາດໃນການຜ່ອນຄາຍເມື່ອມີຄວາມຮູ້ສຶກຢາກກິນດື່ມ ພ້ອມກັບຖາມເຖິງການສະແດງຄວາມຮູ້ສຶກຕໍ່ຜູ້ອື່ນເມື່ອພວກເຂົາພົບເລື່ອງບໍ່ດີມາ. ບັນດານັກວິໄຈກ່າວວ່າ ຜົນທີ່ອອກມາແມ່ນຫຸ່ນຍົນພວກນີ້ທຸກຕົວແມ່ນໄດ້ຄະແນນຕ່ຳກວ່າຄ່າສະເລ່ຍສຳລັບການສະແດງຄວາມຮູ້ສຶກໃນການເຫັນໃຈຜູ້ອື່ນ ແລະ ເຄິ່ງໜຶ່ງແມ່ນຖືກປະເມີນວ່າເສບຕິດເຫຼົ້າ (ຖ້າຫາກວ່າແມ່ນມະນຸດ) ເຊິ່ງສະແດງອອກມາໃຫ້ເຫັນວ່າມີບັນຫາທາງດ້ານສຸຂະພາບຈິດທີ່ຮຸນແຮງ. ນອກຈາກນີ້, Chatbots ຂອງ facebook ແລະ Baidu ເຮັດຄະແນນໄດ້ຕ່ຳກວ່າທັງຂອງ Microsoft ແລະ Wechat ອີກ.

ທາງນັກວິໄຈຕ່າງກໍສະແດງຄວາມກັງວົນເຖິງ Chatbots ພວກນີ້ທີ່ໄດ້ຖືກປ່ອຍສູ່ສາທາລະນະ ເຊິ່ງມັນອາດຈະສ້າງຜົນກະທົບໃນທາງລົບຕໍ່ຜູ້ໃຊ້ງານ ໂດຍສະເພາະແມ່ນກຸ່ມຄົນທີ່ຍັງບໍ່ບັນລຸນິຕິພາວະ ແລະ ກຸ່ມຄົນທີ່ພົບບັນຫາໃນຊີວິດ.

ຂອບໃຈຂໍ້ມູນຈາກ:

ຕິດຕາມຂ່າວທັງໝົດຈາກ LaoX: https://laox.la/all-posts/