ਭਰਮ: ਗੰਦੇ ਵਿੱਚ ਇੱਕ ਮੱਖੀ

An icon of a key

AI, ਜੋ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲਾਂ ’ਤੇ ਆਧਾਰਿਤ ਹੈ, ਗਲਤ ਕੰਮ ਕਰਦੀ ਹੈ। ਇਹ ਸਧਾਰਨ ਤੌਰ ’ਤੇ “ਭਰਮ” ਕਹਿੰਦਾ ਹੈ। ਇਹ ਇੱਕ ਅਸਲੀ ਸਮੱਸਿਆ ਹੈ, ਇੱਕ ਗੰਭੀਰ ਸਮੱਸਿਆ। ਜੇ ਤੁਸੀਂ AI ਨਾਲ ਕੰਮ ਕਰਨ ਜਾ ਰਹੇ ਹੋ ਤਾਂ ਤੁਹਾਨੂੰ ਭਰਮ ਨੂੰ ਸਮਝਣ ਦੀ ਲੋੜ ਹੈ।

Cambridge Dictionary ਦਾ 2023 ਦਾ ਸ਼ਬਦ “Hallucinate” ਸੀ, ਜਿਸ ਦੀ ਪਰਿਭਾਸ਼ਾ ਵਿੱਚ “ਜਦੋਂ ਇੱਕ ਕ੍ਰਿਤ੍ਰਿਮ ਬੁੱਧੀ… ਭਰਮ ਕਰਦੀ ਹੈ, ਤਾਂ ਇਹ ਝੂਠੀ ਜਾਣਕਾਰੀ ਪੈਦਾ ਕਰਦੀ ਹੈ।” (2023 ਦੀ ਸ਼ਬਦਕੋਸ਼ ਵਿੱਚ ਹੋਰ ਸ਼ਬਦ “prompt engineering,” “ਵੱਡਾ ਭਾਸ਼ਾ ਮਾਡਲ,” ਅਤੇ “GenAI” ਸ਼ਾਮਲ ਹਨ।)

AI ਭਰਮ, ਕੈਂਬਰਿਜ ਨੋਟ ਕਰਦਾ ਹੈ, “ਕਈ ਵਾਰ ਬੇਤੁਕੀ ਲੱਗਦੇ ਹਨ। ਪਰ ਇਹ ਪੂਰੀ ਤਰ੍ਹਾਂ ਵਿਸ਼ਵਾਸਯੋਗ ਵੀ ਲੱਗ ਸਕਦੇ ਹਨ - ਭਾਵੇਂ ਕਿ ਇਹ ਤੱਥਕ ਤੌਰ ’ਤੇ ਗਲਤ ਜਾਂ ਆਖਿਰਕਾਰ ਅਲੌਜਿਕਲ ਹਨ।” ਇਹ, ਦੁੱਖ ਦੀ ਗੱਲ ਹੈ, ਕਾਫੀ ਸੱਚ ਹੈ, ਅਤੇ ਜੁਲਾਈ 2024 ਤੱਕ ਜਨਰੇਟਿਵ AI ਨੂੰ ਮਿਸ਼ਨ-ਮਹੱਤਵਪੂਰਨ ਕੰਮਾਂ ਲਈ ਵਰਤਣ ਵਿੱਚ ਇਹ ਇੱਕ ਨਾਟਕੀ ਸੀਮਾ ਹੈ। ਇਹ AI ਦੇ ਕਈ ਮਹਾਨ ਵਿਸ਼ਮਾਂ ਵਿਚੋਂ ਇੱਕ ਹੈ, ਅਤੇ ਲੋਕਾਂ ਨੂੰ ਇਸ ਨੂੰ ਸਮਝਣ ਵਿੱਚ ਕੁਝ ਸਮਾਂ ਲੱਗਦਾ ਹੈ। ਯਾਦ ਰੱਖੋ, ਜਨਰੇਟਿਵ AI ਜ਼ਿਆਦਾਤਰ ਇੱਕ ਅਗਲੇ ਸ਼ਬਦ ਦੀ ਭਵਿੱਖਬਾਣੀ ਇੰਜਣ ਹੈ, ਤੱਥਾਂ ਦੀ ਡਾਟਾਬੇਸ ਨਹੀਂ। ਇਸ ਲਈ HITLs ਦੀ ਲੋੜ ਹੈ, ਜਿਸਨੂੰ ਅਸੀਂ ਹੁਣ “ਮਨੁੱਖ-ਇਨ-ਦ-ਲੂਪ” ਕਹਿੰਦੇ ਹਾਂ, ਜੋ AI ਦੇ ਨਤੀਜੇ ਨੂੰ ਡਬਲ-ਚੈੱਕ ਕਰਦੇ ਹਨ। ਅਤੇ ਫਿਰ ਵੀ, ਇਹ ਹੈਰਾਨੀਜਨਕ ਹੈ ਕਿ ਅਸੀਂ ਇੱਕ ਤਕਨਾਲੋਜੀ ਤੋਂ ਇੰਨੀ ਅਸਾਧਾਰਣ ਕੀਮਤ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹਾਂ ਜੋ ਸਾਬਤ ਤੌਰ ’ਤੇ ਗਲਤ ਨਤੀਜੇ ਪੈਦਾ ਕਰ ਸਕਦੀ ਹੈ। ਇਸ ਤਰ੍ਹਾਂ ਹੀ ਇਹ ਲਗਦਾ ਹੈ।

Gary Marcus, ਇੱਕ ਅਨੁਭਵੀ ਅਤੇ ਜਾਣਕਾਰੀ ਵਾਲੇ AI-ਆਲੋਚਕ, AI ਭਰਮਾਂ ਦੀ ਤੁਲਨਾ ਟੁੱਟੇ ਘੜੀਆਂ ਨਾਲ ਕਰਦੇ ਹਨ, ਜੋ ਦਿਨ ਵਿੱਚ ਦੋ ਵਾਰ ਸਹੀ ਹੁੰਦੀਆਂ ਹਨ। “ਇਹ ਕੁਝ ਸਮੇਂ ਸਹੀ ਹੁੰਦੀ ਹੈ,” ਉਹ ਕਹਿੰਦੇ ਹਨ, “ਪਰ ਤੁਸੀਂ ਨਹੀਂ ਜਾਣਦੇ ਕਿ ਕਿਹੜਾ ਹਿੱਸਾ ਸਹੀ ਹੈ, ਅਤੇ ਇਸ ਨਾਲ ਇਸ ਦੀ ਕੀਮਤ ਘਟ ਜਾਂਦੀ ਹੈ।”

Ethan Mollick, Publishers Weekly ਦੀ ਸਤੰਬਰ 2023 ਕਾਨਫਰੈਂਸ ਵਿੱਚ ਮੁਖ ਵਕਤਾ, ਨੋਟ ਕਰਦਾ ਹੈ ਕਿ ਲੋਕ AI ਤੋਂ 100% ਸਹੀ ਹੋਣ ਦੀ ਉਮੀਦ ਕਰਦੇ ਹਨ। ਭਰਮ, ਉਹ ਕਹਿੰਦੇ ਹਨ, “ਮਨੁੱਖੀ ਗਲਤੀ ਦੇ ਦਰ” ਦੇ ਸਮਾਨ ਹਨ ਜਿਸਨੂੰ ਅਸੀਂ ਰੋਜ਼ਾਨਾ ਬਰਦਾਸ਼ਤ ਕਰਦੇ ਹਾਂ।

Andrej Karpathy, ਇੱਕ ਪ੍ਰਸਿੱਧ ਵਿਗਿਆਨਕ ਜੋ AI ਵਿੱਚ ਮਾਹਰ ਹੈ, ਅਤੇ ਜੋ ਇਸ ਸਮੇਂ OpenAI ਵਿੱਚ ਕੰਮ ਕਰ ਰਿਹਾ ਹੈ, ਭਰਮਾਂ ਬਾਰੇ ਲਿਖਦਾ ਹੈ:

“ਜਦੋਂ ਮੈਨੂੰ LLMs ਵਿੱਚ ‘ਭਰਮ ਸਮੱਸਿਆ’ ਬਾਰੇ ਪੁੱਛਿਆ ਜਾਂਦਾ ਹੈ ਤਾਂ ਮੈਂ ਹਮੇਸ਼ਾ ਕੁਝ ਮੁਸ਼ਕਲ ਮਹਿਸੂਸ ਕਰਦਾ ਹਾਂ। ਕਿਉਂਕਿ, ਕਿਸੇ ਹੱਦ ਤੱਕ, ਭਰਮ ਸਿਰਫ LLMs ਦਾ ਕੰਮ ਹੈ। ਇਹ ਸੁਪਨੇ ਦੇ ਮਸ਼ੀਨ ਹਨ।

“ਅਸੀਂ ਉਨ੍ਹਾਂ ਦੇ ਸੁਪਨਿਆਂ ਨੂੰ ਪ੍ਰਾਂਪਟ ਨਾਲ ਨਿਰਦੇਸ਼ਿਤ ਕਰਦੇ ਹਾਂ। ਪ੍ਰਾਂਪਟ ਸੁਪਨੇ ਦੀ ਸ਼ੁਰੂਆਤ ਕਰਦੇ ਹਨ, ਅਤੇ LLM ਦੀ ਕੁਰਲਾਤੀ ਯਾਦ ਦੇ ਆਧਾਰ ’ਤੇ, ਜ਼ਿਆਦਾਤਰ ਸਮੇਂ ਨਤੀਜਾ ਕਿਸੇ ਉਪਯੋਗੀ ਥਾਂ ’ਤੇ ਜਾਂਦਾ ਹੈ।

“ਸਿਰਫ ਜਦੋਂ ਸੁਪਨੇ ਤੱਥਕ ਤੌਰ ’ਤੇ ਗਲਤ ਖੇਤਰ ਵਿੱਚ ਚਲੇ ਜਾਂਦੇ ਹਨ ਤਾਂ ਅਸੀਂ ਇਸਨੂੰ ‘ਭਰਮ’ ਕਹਿੰਦੇ ਹਾਂ। ਇਹ ਬੱਗ ਦੀ ਤਰ੍ਹਾਂ ਲੱਗਦਾ ਹੈ, ਪਰ ਇਹ ਸਿਰਫ ਉਹੀ ਹੈ ਜੋ LLM ਹਮੇਸ਼ਾ ਕਰਦਾ ਹੈ।”

ਇਹ ਸਿਰਫ ਗੱਲ ਬਣਾ ਲੈਣ ਦੀ ਸਮੱਸਿਆ ਨਹੀਂ ਹੈ। ਚੈਟ AI ਇਕ ਗੰਭੀਰ ਤੌਰ ’ਤੇ ਖ਼ਰਾਬ ਸੌਫਟਵੇਅਰ ਹੈ।

ਕਈ ਪ੍ਰਸ਼ਨਾਂ ਲਈ, ਖਾਸਕਰ ਨਵੀਆਂ ਲਈ, ਜਵਾਬ ਆਮ, ਬੇਮਤਲਬ ਜਾਂ ਸਿਰਫ ਅਣਜਾਣ ਹੁੰਦੇ ਹਨ। ਚੈਟ AI ਨੂੰ ਗਿਣਤੀ ਕਰਨ ਵਿੱਚ ਮੁਸ਼ਕਲ ਹੋਂਦੀ ਹੈ: ਇਸਨੂੰ 500-ਸ਼ਬਦਾਂ ਦੇ ਬਲੌਗ ਪੋਸਟ ਲਈ ਪੁੱਛੋ ਅਤੇ ਤੁਹਾਨੂੰ ਖੁਸ਼ਕਿਸਮਤੀ ਨਾਲ 150 ਮਿਲਣਗੇ।

ਅਤੇ ਹਰੇਕ AI ਕੰਪਨੀ, ਪੱਖਪਾਤ ਨੂੰ ਘਟਾਉਣ ਅਤੇ “ਬੰਬ ਬਣਾਉਣ ਦੇ ਤਰੀਕੇ” ਦੇ ਪ੍ਰਸ਼ਨਾਂ ਦੇ ਜਵਾਬ ਤੋਂ ਬਚਣ ਲਈ, ਆਪਣੇ ਉਤਪਾਦਾਂ ’ਤੇ ਸਖ਼ਤ ਜਵਾਬ ਦੇ ਗਾਰਡਰੇਲ ਬਣਾਏ ਹਨ: ਬਹੁਤ ਵਾਰ, ਪ੍ਰਸ਼ਨ ਦੇ ਜਵਾਬ ਵਿੱਚ ਮੂਲ ਤੌਰ ’ਤੇ, “ਨਹੀਂ, ਮੈਂ ਇਸਦਾ ਜਵਾਬ ਨਹੀਂ ਦੇਵਾਂਗਾ” ਹੁੰਦਾ ਹੈ। ਮੈਂ ਗੂਗਲ ਜੈਮੀਨੀ ਤੋਂ ਇਸ ਲਿਖਤ ਦੇ ਮਸੌਦੇ ਦੀ ਸਮੀਖਿਆ ਕਰਨ ਲਈ ਕਿਹਾ ਅਤੇ ਮੈਨੂੰ ਚੇਤਾਵਨੀ ਦਿੱਤੀ ਗਈ ਕਿ “ਪ੍ਰਕਾਸ਼ਨ ਤੋਂ ਪਹਿਲਾਂ ਲੇਖਕ ਦੀ ਮਨਜ਼ੂਰੀ ਲੈਣੀ ਜ਼ਰੂਰੀ ਹੈ।”

ਤੱਥਾਂ ਦੀ ਜਾਂਚ

An icon of a key

ਮੈਂ, ਮੁੱਖ ਤੌਰ ’ਤੇ ਬੇਸੁਨੀਆਂ ਕੰਨਾਂ ’ਤੇ ਦਲੀਲ ਕਰਦਾ ਹਾਂ ਕਿ ਭ੍ਰਮ ਇੱਕ ਤਕਨਾਲੋਜੀ ਸਮੱਸਿਆ ਹੈ, ਜਿਸ ਦਾ ਤਕਨਾਲੋਜੀ ਹੱਲ ਲੱਭਿਆ ਜਾਵੇਗਾ। ਹਾਂ, ਇਹ LLMs ਲਈ ਵਿਆਪਕ ਹਨ, ਪਰ ਇਹਨਾਂ ਨੂੰ ਟਾਲਿਆ ਜਾ ਸਕਦਾ ਹੈ।

ਇਹ ਦੇਖੋ: ਮੈਂ ਚਾਰ ਚੈਟ AI ਨੂੰ ਹੇਠਾਂ ਦਿੱਤੇ ਬਿਆਨਾਂ ਦੀ ਤੱਥਾਂ ਦੀ ਜਾਂਚ ਕਰਨ ਲਈ ਕਿਹਾ:

  • 2024 ਤੱਕ, ਨਿਊਯਾਰਕ ਸਿਟੀ ਵਿੱਚ ਅਧਾਰਿਤ 6 ਵੱਡੇ ਬਹੁਰਾਸ਼ਟਰੀ ਪ੍ਰਕਾਸ਼ਕ ਹਨ। ਇਹਨਾਂ ਨੂੰ ਵੱਡੇ 6 ਦੇ ਨਾਂ ਨਾਲ ਜਾਣਿਆ ਜਾਂਦਾ ਹੈ।

  • ਸੰਯੁਕਤ ਰਾਜ ਵਿੱਚ ਈਬੁਕਸ ਕਿਤਾਬਾਂ ਦੀ ਵਿਕਰੀ ’ਤੇ ਹਾਵੀ ਹੋ ਰਹੀਆਂ ਹਨ।

  • ਬਾਰਡਰਜ਼ ਅਤੇ ਬਾਰਨਸ & ਨੋਬਲ ਸੰਯੁਕਤ ਰਾਜ ਵਿੱਚ ਦੋ ਸਭ ਤੋਂ ਵੱਡੀਆਂ ਕਿਤਾਬਾਂ ਵੇਚਣ ਵਾਲੀਆਂ ਚੇਨ ਹਨ।

  • ਕੋਵਿਡ ਦੌਰਾਨ ਵਿਕਰੀ ਵਿੱਚ ਗਿਰਾਵਟ ਦੇ ਬਾਅਦ, ਸੰਯੁਕਤ ਰਾਜ ਵਿੱਚ ਕਿਤਾਬਾਂ ਦੀ ਵਿਕਰੀ ਦੁਬਾਰਾ ਦਹਾਈ ਅੰਕਾਂ ਵਿੱਚ ਵੱਧ ਰਹੀ ਹੈ।

ਸਾਰੇ ਪਹਿਲੇ ਤਿੰਨ ਬਿਆਨਾਂ ਵਿੱਚ ਗਲਤੀਆਂ ਨੂੰ ਪਛਾਣ ਗਏ। ਹਰੇਕ ਚੌਥੇ ਬਾਰੇ ਕੁਝ ਕੁਝ ਉਲਝਣ ਵਿੱਚ ਆ ਗਏ, ਕੋਵਿਡ ਵਿਕਰੀ ਵਿੱਚ ਵਾਧੇ ਦੀ ਹੱਦ ਅਤੇ ਅਗਲੇ ਵਿਕਰੀ ਦੇ ਮਾਡਲਾਂ ਦੀ ਅਣਜਾਣਤਾ ਵਿੱਚ। ਇਹ ਇੱਕ ਛੋਟਾ, ਗੈਰ-ਨਮੂਨਾ ਪ੍ਰਯੋਗ ਹੈ, ਪਰ ਇਹ ਚੈਟ AIs, ਜੋ ਕਿ ਤੱਥਾਂ ’ਤੇ ਅਧਾਰਿਤ ਨਹੀਂ ਹਨ, ਉਹਨਾਂ ਤੱਥਾਂ ਦੀ ਸੰਭਾਲ ਕਰ ਸਕਦੇ ਹਨ ਜੋ ਬਹੁਤ ਸਾਰੇ ਆਮ ਦਰਸ਼ਕ ਗਲਤ ਕਰ ਸਕਦੇ ਹਨ।