ปัญญาประดิษฐ์และภาพหลอน เล่ม 2 พวกเขาไม่ได้ปรับปรุงในปี 2025...หรือเปล่า?

การคิดปัญญาประดิษฐ์

เพียงปีกว่า ๆ เราเผยแพร่ ที่นี่ใน LXA บทความเกี่ยวกับภาพหลอนของ ปัญญาประดิษฐ์- สิ่งเหล่านี้เป็นอันตราย หากเราเข้าใจว่าเป็นการเสียเวลา หรือเราอาจได้รับข้อมูลเท็จ เมื่อเราถามบางอย่างที่พวกเขาไม่สามารถรับจากฐานข้อมูลได้อย่างรวดเร็ว พวกเขาสามารถตอบอะไรก็ได้ และนั่นไม่ได้ทำให้ผมดีขึ้นมากนักในปี 2025 ซึ่งเราก็ได้อยู่ในยุคนั้นไปแล้ว

ได้รับความนิยมในช่วงไม่นานมานี้ ดีปซีคปัญญาประดิษฐ์ที่ส่งมาให้เราจากประเทศจีน และสามารถให้ผลลัพธ์ที่คล้ายคลึงกับ ChatGPT หรืออาจปรับปรุงให้ดีขึ้นได้ แต่สิ่งที่ดีที่สุดของ AI เหล่านี้ได้มาหากเราเปิดใช้งานตัวเลือกของ คิดให้ลึกซึ้งยิ่งขึ้น, เหตุผลหรืออะไรก็ตามที่พวกเขาเรียกมันในโมเดลที่กำลังเป็นปัญหา มิฉะนั้น พวกเขาทั้งหมดก็มักจะล้มเหลวในเรื่องเดียวกัน คือ ตอบสนองอย่างรวดเร็วไม่ว่าสิ่งที่พวกเขาพูดจะถูกต้องหรือไม่ก็ตาม

ภาพหลอนใหม่ของปัญญาประดิษฐ์

เป็นครั้งคราวฉันก็จะใช้เวลาเล่นกับ ดาดฟ้าไอน้ำของฉัน- ฉันเพิ่งเล่นเกม Borderlands The Presequel จบไป และฉันไม่ค่อยเข้าใจตอนจบสักเท่าไร (สปอยล์เตือน): ลิลิธต่อยแฮนซัมแจ็ค... ลิลิธมาจากไหน? ฉันถาม ChatGPT และฉันจำไม่ได้ด้วยซ้ำว่าเขาบอกฉันว่าอย่างไร ถ้าฉันจำไม่ผิด ฉันจำได้ว่า ขออภัยที่ซ้ำซาก ฉันกำลังไล่ตามผู้เล่นของเราโดยใช้การล่องหนของเขา แล้วฉันก็พูดต่อ แจ็คผู้หล่อเหลามีบานพับที่หน้าและเขาไม่สามารถบอกฉันได้ว่ามันเป็นหน้ากาก

แต่สิ่งที่เลวร้ายที่สุดก็คือตอนที่ฉันถามเขาว่าฉันต้องไปที่ไหนเพื่อจะเล่นส่วนขยาย Claptrap Voyage คุณเห็นอะไรที่นี่ คุณเห็นอะไรที่นั่น อะไร… ในขณะที่ค้นหาในอินเทอร์เน็ต ฉันพบว่าฉันต้องไปที่ชั้น 13/2 หรือบางสิ่งที่คล้ายกัน (ตอนนี้ฉันจำชื่อไม่ได้แล้ว) ซึ่งเป็นสิ่งที่เราสามารถทำได้จากการเดินทางสั้นๆ

เพื่อให้มีพื้นฐานเพิ่มเติมสำหรับบทความนี้ ฉันจึงคิดจะถาม ChatGPT เกี่ยวกับเรื่องเดียวกัน แต่ด้วยเหตุผล ฉันก็ได้ทำบางอย่างใน DeepSeek เช่นกัน DeepSeek ทำได้ถูกต้องในการลองครั้งแรก ในขณะที่ ChatGPT ให้ตัวเลือกฉันมาสองทาง ทางหนึ่งถูกต้อง และอีกทางหนึ่งปฏิเสธว่ามีส่วนขยายใน The Presequel ที่เกี่ยวข้องกับ Claptrap ฉันเลือกตัวเลือกนั้นเพื่อดูว่ามันจะแก้ไขได้หรือไม่... แต่ไม่เลย

คุณต้องการความแม่นยำไหม?

ChatGPT เป็นที่นิยมมากที่สุดในขณะนี้ และเป็นสิ่งที่คนส่วนใหญ่ใช้ หากเราต้องการให้เหตุผล เราต้องเผชิญกับสองปัญหา ปัญหาแรกคือ ต้องใช้เวลา 20-40 วินาทีจึงจะเริ่มให้คำตอบได้ และปัญหาที่สองคือ การใช้เหตุผลอย่างอิสระนั้นเป็นไปได้เพียงไม่กี่ครั้งต่อวันเท่านั้น เมื่อเกินขีดจำกัดแล้ว มันก็ไม่ทำงานอีกต่อไป และเราถูกบังคับให้ใช้โมเดลที่ต้องชำระเงิน นอกจาก, ดีปซีค เขาสามารถใช้เหตุผลได้เสมอ แต่บางครั้งเขาก็ติดขัดและไม่ทำงาน

ดังนั้นเราต้องจ่ายเงินหรือรอหรือเราจะโชคดี

ถึงกระนั้น ภาพหลอนเกี่ยวกับปัญญาประดิษฐ์ก็ยังคงเกิดขึ้นอยู่ทุกวัน และฉันคิดว่ามันคงคุ้มค่าที่จะจำสิ่งนี้ไว้เพื่อป้องกันไม่ให้ใครก็ตามรับข้อมูลที่ให้มาเป็นเรื่องแน่นอน

ถ้าเราค้นหาจะเกิดอะไรขึ้น?

สิ่งที่อาจคุ้มค่าคือการไม่ปล่อยให้โมเดลเริ่มต้นตอบสนองต่อเรา เขาคือคนที่ล้มเหลวมากที่สุด "cuñao" มากที่สุด นั่นคือคนที่ตอบคำถามมากที่สุดโดยไม่สนใจว่าตัวเองจะรู้คำตอบหรือไม่ก็ตาม โมเดลเหล่านี้ให้คำตอบเกี่ยวกับสิ่งที่พวกเขาได้เรียนรู้ และหากพวกเขาไม่ได้เรียนรู้มัน พวกมันจะพยายามแก้ไขข้อสงสัยของเราโดยการสร้างความสัมพันธ์ที่โดยปกติแล้วจะไม่ให้ผลลัพธ์ที่ดี สิ่งต่างๆจะเปลี่ยนไปหากเราเร่ง ปุ่มค้นหาหรือปุ่มให้เหตุผล.

ถ้าเราขอให้เขาค้นหาเขาก็จะทำแบบนั้น มันจะวิเคราะห์สิ่งที่พบและแสดงผลลัพธ์ที่เราเห็นเป็นการสรุปของการค้นหาที่เราจะทำ ตัวเลือกในการใช้เหตุผลจะช่วยป้องกันไม่ให้คุณพูดเรื่องไร้สาระแรกที่ผุดขึ้นมาในใจ แม้ว่าบางครั้งเหตุผลของ ChatGPT จะทำให้สิ่งต่างๆ แย่ลงก็ตาม

ปัญญาประดิษฐ์ยังคงพัฒนาอย่างต่อเนื่อง แต่หากเราไม่ใช้มันให้เกิดประโยชน์ มันก็จะยังคงสร้างความสับสนให้กับเรามากกว่าที่จะช่วยเรา


แสดงความคิดเห็นของคุณ

อีเมล์ของคุณจะไม่ถูกเผยแพร่ ช่องที่ต้องการถูกทำเครื่องหมายด้วย *

*

*

  1. รับผิดชอบข้อมูล: AB Internet Networks 2008 SL
  2. วัตถุประสงค์ของข้อมูล: ควบคุมสแปมการจัดการความคิดเห็น
  3. ถูกต้องตามกฎหมาย: ความยินยอมของคุณ
  4. การสื่อสารข้อมูล: ข้อมูลจะไม่ถูกสื่อสารไปยังบุคคลที่สามยกเว้นตามข้อผูกพันทางกฎหมาย
  5. การจัดเก็บข้อมูล: ฐานข้อมูลที่โฮสต์โดย Occentus Networks (EU)
  6. สิทธิ์: คุณสามารถ จำกัด กู้คืนและลบข้อมูลของคุณได้ตลอดเวลา