ຜູ້ຊ່ຽວຊານເຕືອນ ປັນຍາປະດິດ ອາດຈະນຳໄປສູ່ການສູນພັນຂອງມະນຸດ


ກຸ່ມຜູ້ຊ່ຽວຊານ ເຊິ່ງລວມເຖິງຊີອີໂອຂອງ OpenAI ແລະ Google Deepmind ອອກຖະແຫຼງການເຕືອນວ່າ ເທັກໂນໂລຢີປັນຍາປະດິດ (AI) ອາດຈະນຳໄປສູ່ ການສູນພັນຂອງມະນຸດ ຜ່ານການເຜີຍແຜ່ເທິງໜ້າເວັບໄຊສູນຄວາມປອດໄພ AI.

ໂດຍເນື້ອໃນຈາກຖະແຫຼງການລະບຸວ່າ “ການລົດຄວາມສ່ຽງຕໍ່ການສູນພັນຂອງມະນຸດຈາກ AI ຄວນມີຄວາມສຳຄັນລະດັບໂລກຄວບຄູ່ໄປກັບຄວາມສ່ຽງອື່ນໆ ໃນລະດັບສັງຄົມ ເຊັ່ນ: ໂຣກລະບາດ ແລະ ສົງຄາມນິວເຄຼຍ” ຢ່າງໃດກໍຕາມການຖະແຫຼງການຍັງບໍ່ໄດ້ກ່າວວ່າຄວນເຮັດແບບໃດ ເພື່ອຈະຫຼີກເວັ້ນຜົນກະທົບຮ້າຍແຮງທີ່ຈະເກີດຂຶ້ນ.

Sam Altman ປະທານເຈົ້າໜ້າທີ່ບໍລິຫານຂອງ OpenAI ຜູ້ພັດທະນາ ChatGPT ແລະ ອີກຫຼາຍທ່ານ ຕ່າງກໍສະໜັບສະໜູນຄຳກ່າວນີ້ຫຼັງທາງສູນຄວາມປອດໄພ AI ກ່າວເຕືອນເຖິງຫາຍະນະທີ່ອາດຈະເກີດຂຶ້ນໄດ້ເຊັ່ນ: AI ສາມາດໃຊ້ເປັນອາວຸດໄດ້ ເປັນຕົ້ນ. ແຕ່ກໍຍັງມີຜູ້ຊ່ຽວຊານອີກຫຼາຍຄົນເຊື່ອໃນທຳນອງຄອງດຽວກັນວ່າ ຄວາມຢ້ານທີ່ວ່າ AI ຈະກຳຈັດມະນຸດນັ້ນບໍ່ແມ່ນຄວາມຈິງ ແລະ ເປັນການຫັນເຫຄວາມສົນໃຈຈາກບັນຫາຕ່າງໆ.

Arvind Narayanan ນັກວິທະຍາສາດຄອມພິວເຕີແຫ່ງມະຫາວິທະຍາໄລ Princeton ໃນປະເທດອາເມຣິກາໄດ້ກ່າວວ່າ ສະຖານະການໄພພິບັດທີ່ຄືກັບຮູບເງົາໄຊໄຟ (Sic-Fi) ນັ້ນບໍ່ສົມຈິງ “AI ໃນປັດຈຸບັນບໍ່ມີຄວາມສາມາດພຽງພໍທີ່ຈະໃຫ້ຄວາມສ່ຽງເຫຼົ່ານີ້ເກີດຂຶ້ນໄດ້ຈິງ ແລະ ຜົນຄື ເລື່ອງນີ້ຫັນເຫຄວາມສົນໃຈຈາກອັນຕະລາຍໃນໄລຍະອັນໃກ້ຂອງ AI”.

ການລາຍງານຂ່າວຂອງສື່ກ່ຽວກັບໄພຄຸກຄາມຈາກ AI ໄດ້ເລີ່ມເປັນກະແສຕັ້ງແຕ່ເດືອນ ມີນາ 2023 ເມື່ອຜູ້ຊ່ຽວຊານລວມໄປເຖິງ Elon Musk ລົງນາມໃນຈົດໝາຍເພື່ອຮຽກຮ້ອງໃຫ້ຢຸດການພັດທະນາເທັກໂນໂລຢີຮຸ່ນຕໍ່ໄປ. ຖະແຫຼງການປຽບທຽບຄວາມສ່ຽງກັບສົງຄາມນິວເຄຼຍ ໂດຍ OpenAI ໄດ້ລະບຸວ່າ Superintelligence ຫຼື ເຄື່ອງຈັກທາງປັນຍາ ອາດຈະຖືກຄວບຄຸມໃນລັກສະນະທີ່ຄ້າຍຄືກັບພະລັງງານນິວເຄຼຍ ເຊິ່ງພວກເຮົາອາດຈະຕ້ອງການໜ່ວຍງານໃນລັກສະນະດຽວກັບວົງການພະລັງງານປະລາມະນູໃນການຄວບຄຸມ Superintelligence.

ຂອບໃຈຂໍ້ມູນຈາກ:

ຕິດຕາມຂ່າວທັງໝົດຈາກ LaoX: https://laox.la/all-posts/