הצד האפל של הבינה המלאכותית
נכתב הרבה על הופעתו של ChatGPT וההשפעה שתהיה לו על כל דבר, החל מעבודות בבית הספר ובאוניברסיטאות, דרך עיתונות, מפתחים ועד משאבי אנוש. זה נושא מרתק שממלא אותנט בו זמנית גם בתדהמה מהטכנולוגיה וגם בתחושת אימה לגבי המשמעות שלה על האנושות.
המציאות היא שבינה מלאכותית נמצאת בכל מקום, והיקף ההשקעות בתחום גדלות באופן אקפוננציאלי בשנה האחרונה. המגזין פורבס מדווח כי מספר חברות הסטארט-אפ הפועלות בתחום של בינה מלאכותית מאז שנת 2000 גדל פי 14 , ו-72% מהמנהלים בסקר שנערך לאחרונה ב-PwC מאמינים שבינה מלאכותית תהיה היתרון העסקי המשמעותי ביותר של העתיד. זה מזכיר את הימים הראשונים של עידן האינטרנט, כאשר כולם התגייסו למצוא דרכים גם להרוויח מהפיצוץ ביכולות הטכניות וגם להימנע מלהישאר מאחור כשהמתחרים שלהם אימצו גישות חדשות לעבודה.
לבינה מלאכותית יכולות פורצות דרך לשנות את החיים שלנו לטובה באמצעות פתרון בעיות אנושיות בתחום הרפואה, המדע, אנרגיה, קיימות ועוד. האנושות יכולה להפיק ערך רב מכלים אלה, אך כמו כל טכנולוגיה משבשת פורצת דרך, את היכולות של הבינה המלאכותית ניתן לנצל אותה גם לרעה. בעצם ההתקדמות הכה מהירה בתחום קיימת סכנה מובנית בחוסר היכולת להעריך את הסיכונים שהטכנולוגיה הזאת מביאה עמה. בנוסף עם הפיגור המשפטי שמגיע עם הטכנולוגיות המתפתחות במהירות, הרגולציה אינה מצוידת להתמודד באופן יזום עם כמה מהאתגרים הקשורים בינה מלאכותית לפני שהיא גורמת נזק לא מכוון. כל זאת, למרות העובדה ש-81% ממובילי הטכנולוגיה היו רוצים לראות יותר רגולציה, לפי דוח עדכני של DataRobot. לאחרונה אף חתמו כ-1000 מומחים עולמיים בינהם איילון מאסק ופרופסור נח הררי על עצומה להשהות את התקדמות הטכנולוגיה לחצי שנה על מנהל להסדיר רגולציות בעניים.
אז הנה מספר דוגמאות לשימושים זדוניים בבינה מלאכותית:
התקפות סייבר לפרטיים וארגונים
אבטחת סייבר נותרה דאגה מרכזית לעסקים, מכיוון שהתקריות המוגברות של התקפות כופר וגניבת נתונים הביאו את הצורך בהגנה על תשתיות. באופן אירוני, ל-AI יש פוטנציאל לעזור להגביר את הגנת הסייבר על ידי ניתוח דפוסי ההתקפות כדי להפריד בין האיומים האמיתיים לרעש לא מזיק. למרבה הצער, התחכום שמאפשר לבינה מלאכותית להגן מפני התקפות בהכרח מעיד גם על שיפור יכולות הפריצה של האקרים.
לאחרונה הצליחו האקרים לשפר את היכולות לעקוף מנגנוני אבטחה ולשלוח פניות דואר אלקטרוני זדוניות לאנשים פרטים באמצעות בינה מלאכותית. מחקרים הראו שלמייל דיוג ((fishing שנוצר על ידי בינה מלאכותית יש שיעורי פתיחה גבוהים יותר מהסוג הישן. הודעות דיוג מונעות בינה מלאכותית יכולות לזייף בצורה מושלמת את הנושא, התוכן ופרטי השולח. אפילו אמזון ראתה עלייה באיום, מכיוון שהבינה המלאכותית השתפרה בשימוש במידע אישי המשותף באינטרנט כדי ליצור מסרים מתוחכמים ואישיים להפליא כדי לפתות את הקורא לפתוח תוכנות זדוניות.
הֲטָיָה
בימים הראשונים, AI הוכרז כפתרון שיעזור לשבור הטיות בטכנולוגיית משאבי אנוש, במיוחד בתהליך הגיוס. התקווה הייתה שהוצאת בני אדם מהמשוואה בתהליך המיון תוביל לשיקול שוויוני יותר של מועמדים על סמך הכישרון, לא על בסיס הרגש.
למרבה הצער, התחזית הזו הייתה מוטעית מאוד. למעשה, מחקרים על השפעת הבינה המלאכותית מצאו השפעה שלילית על תהליכי הגיוס. אמזון ביטלה את כלי המיון שלה בשלב מוקדם מכיוון שמצאה שה-AI מפלה באופן פעיל מועמדות, וחוק חדש נכנס לתוקף בעיר ניו יורק, מעניש ארגונים שנמצאו עם הטיית בינה מלאכותית בתהליכי הגיוס שלהם. משאבי אנוש אינו התעשייה היחידה העומדת בפני רגולציה, שכן שירותי הבריאות נמצאים תחת אש בגלל הטיה דומה. לדוגמה, אלגוריתם שנועד לסייע בזיהוי חולים בסיכון גבוה כדי להציע טיפול נוסף, נמצא כמפלה לרעה חולים עניים יותר מכיוון שאחד הגורמים המרכזיים הקשורים לאלגוריתם היה ההוצאה הכוללת על שירותי בריאות – תוך התעלמות מהעובדה שמטופלים עניים יותר ידחו לעתים קרובות טיפול כי הם לא יכולים להרשות זאת לעצמם.
המציאות היא שבינה מלאכותית עדיין מתוכנתת על ידי אנשים, ואנשים מוטים. זה לא אומר שבינה מלאכותית לא יכולה להוסיף ערך לתהליכי הגיוס או לארגון, זה רק אומר שנדרש לזהות את הסיכון הפוטנציאלי ולנקוט צעדים כדי להפחית אותו. השימוש בבינה מלאכותית כדי להפוך משימות אדמיניסטרטיביות לאוטומטיות, מצריך לבדוק באופן קבוע את התוצאות לאיתור הטיה אפשרית.
יצירתיות וניתוח
בני אדם הם יצורים מורכבים ורגשיים. המודעות שלנו לתמותה שלנו הובילה אותנו לאמונות ולפילוסופיה. אנו מוצאים יופי במילים ובמוזיקה, ודפוסים במספרים ובהתנהגויות. היכולות ליצור, לצמוח, הן מה שמפריד בינינו לבין חיים אחרים על הפלנטה שלנו.
בינה מלאכותית יכולה ליצור יצירות אמנות, ליצור תמונות נשגבות ומגוחכות כאחד. ChatGPT הוא פלא. התוכן שהוא מייצר הוא קוהרנטי להפליא. הוא מסוגל לכתוב שאלות ראיונות שיתחרו באלה מהמגייסים הטובים ביותר וירכיבו טיעון די רהוט לגבי איך זה יערער את היציבות בעבודה בעתיד. Buzzfeed אימצה לחלוטין את AI ככלי ליצירת תוכן, והודיעה כי תשתמש ב-OpenAI כמרכיב ליבה באתר שלה, מה שגרם למניות שלה לזנק ב-150%. ככל שאנשים ממשיכים להאכיל את הבינה המלאכותית במידע, הוא הולך ומשתפר, לומד מהמידע שהוא צורך ומתקרב יותר ויותר לחיקוי בני אדם.
עם זאת צריך להיזהר מלהישען יתר על המידה על AI כדי לעזור לקבל החלטות אסטרטגיות עמוקות יותר. בינה מלאכותית היא כלי מצוין לצבירה ולסיכום מידע בפורמט מתכלה, אבל בסופו של דבר, צריך להיות גשר בין המידע הזה לבין איך לפעול על פי המידע הזה – והגשר הזה הוא האלמנט האנושי. בינה מלאכותית היא כלי – לא השחקן.
חברת מטא מגיבה ל ChatGPT ומשיקה מערכת משלה- הכירו את LaMDA
מארק צוקרברג, מנכ"ל חברת מטא (פייסבוק לשעבר), הבין שהוא לא יכול להישאר מאחור בתחרות על התחום החם ביותר כיום.
תחום הבינה המלאכותית, ואם נדייק יותר, תחום הצ'אטבוטים החכמים.
לאחר ההשקה המטורפת של ChatGPT בסוף 2022 ולאחר ההשקה של בראד (BRAD) על ידי חברת גוגל, השיק השבוע גם צוקרבארג את LaMDA.
גם LaMDA, כמו חבריו, הוא מודל שפה מבוסס בינה מלאכותית (AI) שלומד ויודע לענות על שאלות משתמשים.
על פי צוות המחקר של החברה, המערכת החדשה שהם השיקו :נראה מבטיח מאד ביצירת טקסט, שיחות, סיכום חומר כתוב ומשימות מסובכות יותר כמו פתרון בעיות מתמטיקה או אף בחיזוי מבני חלבון", עדכן המנכ"ל מארק צוקרברג באינסטגרם ביום שישי האחרון.
חברת מטא פירסמה שהיא מציעה מספר רמות של LaMDA –
הראשונה מבוססת על 7 מיליארד פרמטרים, השניה על 13 מיליארד פרמטרים, השלישית על 33 מיליארד פרמטרים והאחרונה על כ 65 מיליארד פרמטרים.
ולטענתם, רוב המודלים שלהם הראו ביצועים טובים יותר מאלו של ChatGPT שמבוסס על 175 מיליארד פרמטרים.
אז אנו רואים שהמלחמה רק מתחממת בין ענקיות האינטרנט – ואין ספק שהולך להיות מרתק!
אם אתם רוצים לא להישאר מאחור ולהבין על מה כל הבאזז אנו מציעים
מלחמת ה AI הגדולה החלה – Brad של גוגל נגד ChatGPT
השימוש בבינה מלאכותית (AI) צומח באופן דרמטי בשנים האחרונות – והוא הולך להתפוצץ בשנים הבאות.
שניים מהשחקנים הגדולים בשוק הם Bard של גוגל ו-ChatGPT של OpenAI.
בפוסט הזה אנו מציגים את קווי הדמיון ואת ההבדלים בין Google Bard ל-ChatGPT של OpenAI, ונדון בהשקעה של מיקרוסופט ב-ChatGPT כדי להתחרות במנוע החיפוש Google.
מה זה ChatGPT?
ChatGPT הוא מודל שפה שפותח על ידי OpenAI.
הוא מאומן על כמות עצומה של נתונים, מה שמאפשר לו ליצור טקסט דמוי אדם ולהגיב לסוגים רבים ומגוונים של שאלות.
המודל משתמש באלגוריתמים מתקדמים של למידה עמוקה (Deep Learning) כדי להבין את ההקשר של השאלה שלנו ולספק תשובות מותאמות אישית.
מה זה Bard?
ה-Bard של גוגל הוא מודל AI שפותח כדי לטפל באינטראקציות עם משתמשים ולהציע חוויות מותאמות אישית.
כמו ChatGPT, הוא מאומן על כמות עצומה של נתונים ומשתמש באלגוריתמים מתקדמים של למידה עמוקה כדי להבין את ההקשר של אינטראקציות עם לקוחות.
בארד משולבת בפלטפורמת החיפש של גוגל, ומספקת תשובות מיידיות לפניות שלהם.
השוואה בין בארד לבין ChatGPT
למרות שפותחו לאותה מטרה של טיפול באינטראקציות עם משתמשים ומתן חוויות מותאמות אישית, יש הבדלים בין בארד ל-ChatGPT.
בארד משולב בפלטפורמת החיפוש של גוגל, בעוד ChatGPT מוצע על ידי OpenAI כמוצר עצמאי וניתן להשתמש בו ולהטמיע אותו כחלק מה API שלו במוצרים נוספים.
בנוסף, בארד נועד לטפל באינטראקציות עם משתמשים בצורה יותר שיחתית, בעוד ש-ChatGPT נועד לספק תשובות אינפורמטיביות יותר לפניה של משתמשים.
העתיד של בינה מלאכותית: הקרב ביןפ בארד ו-Chat GPT
אנו חוזים בימים אלו את התהוות עתיד הבינה המלאכותית (AI) שצומחת במהירות מטורפת.
ככל שהטכנולוגיה ממשיכה להתקדם, כלי ה AI משתלבים ביותר ויותר תעשיות ויישומים שמשפיעים בצורה מיידית בחיי היומיום שלנו.
Bard של גוגל וה-ChatGPT של OpenAI הם שניים מדגמי הבינה המלאכותית הבולטים בשוק, והם מציעים הצצה לעתיד הבינה המלאכותית וההשפעה הפוטנציאלית שלו.
בארד של גוגל הוא מודל בינה מלאכותית שפותחה על ידי Google Research, במטרה להפוך את האינטראקציות המשתמשים לטבעיות ואישיות יותר.
ל-Bard יש את היתרון שהוא מגובה במשאבים העצומים של גוגל, והוא כבר השתלב במספר מוצרים ושירותים של גוגל.
מצד שני, ChatGPT של OpenAI הוא מודל שפת AI רב-תכליתי, המסוגל לבצע מגוון רחב של משימות כולל שירות לקוחות, יצירת תוכן וניתוח נתונים.
היכולת של ChatGPT לבצע משימות מרובות הופכת אותו לפתרון גמיש יותר בהשוואה לבארד, שמתמקד אך ורק במענה שיחה.
התפקיד של בארד ו-ChatGPT בעיצוב העתיד של AI
מבחינת העתיד, ל-Bard וגם ל-ChatGPT יש פוטנציאל להמשיך לחולל מהפכה באופן שבו עסקים מתקשרים עם לקוחות.
ככל שטכנולוגיית הבינה המלאכותית ממשיכה להתקדם, דגמי בינה מלאכותית כמו Bard ו-ChatGPT צפויים להיות מתוחכמים עוד יותר ומסוגלים להתמודד עם משימות מורכבות יותר.
יתר על כן, כאשר חברות מבקשות לשלב בינה מלאכותית בפעילותן, סביר להניח שהביקוש לדגמי בינה מלאכותית כמו בארד ו-ChatGPT ימשיך לגדול.
לבסוף, ההשקעה הפוטנציאלית של מיקרוסופט ב-ChatGPT מדגישה את החשיבות של AI בעתיד הטכנולוגיה, והיא עשויה להוביל לתחרות נוספת בשוק ה-AI.
העתיד של בינה מלאכותית נראה מזהיר, ויהיה מעניין לראות כיצד Google Bard ו-ChatGPT של OpenAI ממשיכים להתפתח ולהשפיע על השוק.
ChatGPT הגיע ל-100 מיליון בתוך חודשיים
ChatGPT, צ'אט בוט הבינה המלאכותית שזכה לתשומת לב נרחבת מאז השקתו לפני חודשיים, נמצא בדרך לעלות על 100 מיליון משתמשים חודשיים פעילים (MAUs), על פי נתונים שנאספו על ידי UBS.
המשמעות היא ש-ChatGPT אומצה מהר יותר אפילו מאינסטגרם ואפילו TikTok. לפי הספירה של UBS, ל-TikTok לקח תשעה חודשים להגיע ל-100 מיליון MAUs, בעוד לאינסטגרם לקח 30 חודשים להגיע לאותו רף.
"נתונים על DAUs מצביעים על כך ש-ChatGPT יעלה על 100 מיליון MAUs בינואר, הישג אדיר בפרק זמן כה קצר", כתבו אנליסטים של UBS בהערה של 1 בפברואר. "בעוד 20 שנה לאחר המרחב האינטרנטי, איננו יכולים לזכור זינוק מהיר יותר באפליקציית אינטרנט לצרכן."
מיקרוסופט העלתה את ההשקעה שלה ב-OpenAI, המפתחת של ChatGPT בסן פרנסיסקו, והתחייבה להשקעה נוספת של 10 מיליארד דולר בינואר (מעבר להשקעה ראשונית של מיליארד דולר). בנוסף, הפופולריות של אפליקציית הבינה המלאכותית דובר בהרחבה כאיום על הדומיננטיות אתר החיפוש גוגל.
בגרף ניתן לראות את משך הזמן בחודשים שלקח לכל אפליקציה להגיע ל-
100 מיליון משתמשים חודשיים.
OpenAI הודיעה החודש שהיא משיקה מנוי בשם "ChatGPT Plus" שמחירו מתחיל מ-20 דולר לחודש. יש סיכוי רב שאנשים רבים ירכשו את המנוי החדש, במיוחד אם ChatGPT ימשיך לצבור תאוצה. פשוט, כרגע, אנשים מדברים על זה ומחפשים את זה, כמובן, בגוגל.
"נתוני Google Trends מראים ששאילתות חיפוש בגוגל ברחבי העולם עבור המונחים 'chatgpt' ו-'chat gpt' הם קרובים לנפחי השיא מאז שהאתר הושק בנובמבר 2022, כאשר עניין החיפוש הגיע לרמה הגבוהה ביותר עד כה רק לפני מספר ימים, "כתבה קבוצת האנליסטים ב-1 בפברואר.
למידע נוסף ולהרצאה ChatGPT לארגונים ניתן להזמין כאן.
נשיא ישראל נעזר בבינה מלאכותית של ChatGPT כדי לכתוב חלק מנאום
(פורסם בסקיי ניוז)
לישראל מוניטין של מייצרת מספר לא פרופורציונלי של סטארט-אפים טכנולוגיים וחדי קרן, כאשר יצחק הרצוג, נשיא המדינה משתמש בנאומו כדי לחזק את הטיעון שרובוטים אינם עומדים להשתלט על משרות בני אדם.
נשיא ישראל, יצחק הרצוג, הדהים את אנשי ההיי-טק בכנס אבטחת סייבר גדול בתל אביב ביום רביעי, כאשר חשף כי החלק הפותח של נאומו נכתב על ידי תוכנת בינה מלאכותית.
בברכת ווידאו מוקלטת עבור Cybertech Global Tel Aviv 2023, אמר מר הרצוג: "אני באמת גאה להיות נשיאה של מדינה שהיא בית לתעשיית היי-טק כל כך תוססת וחדשנית. במהלך העשורים האחרונים, ישראל נמצאת בעקביות בחזית הקידמה הטכנולוגית, וההישגים שלנו בתחומי אבטחת סייבר, בינה מלאכותית (AI) וביג דאטה באמת מרשימים. מפיתוח טכנולוגיות אבטחת סייבר מתקדמות ועד הקמת סטארט אפים מצליחים וחברות הייטק ישראליות שהשפיעו משמעותית על הבמה העולמית".
הנשיא הישראלי חשף אז לקהל המום של אלפי יזמי היי-טק בתל אביב, כי הפתיח בנאומו נכתב על ידי "עוזר מיוחד": בוט הבינה המלאכותית ChatGPT של OpenAI, שכבש את העולם בסערה וכבר מטלטל תעשיות גדולות.
לישראל יש מוניטין הולך וגדל כמעצמת אבטחת סייבר והיי-טק, והעיר תל אביב בים התיכון ידועה כמרכז טכנולוגי עולמי המייצר מספר לא פרופורציונלי של סטארט-אפים וחדי קרן – כך שאין זה מפתיע שנשיא ישראל הוא המנהיג הראשון בעולם, ככל שניתן לקבוע, שהודה בשימוש בבינה מלאכותית כדי לעזור בכתיבת נאום.
נאומו של מר הרצוג, כך מתברר, הוקלט יומיים לפני שנציג ארה"ב ג'ייק אוצ'ינקלוס, חבר קונגרס דמוקרטי, הקריא נאום בן שתי פסקאות שהופק על ידי הבוט Chat GPT בבית הנבחרים – לראשונה בקונגרס האמריקני.
ההתפשטות המהירה של בינה מלאכותית הציתה מחדש את החששות ברחבי העולם לגבי רובוטים שייקחו עבודות של אנשים, אך יצחק הרצוג, נשיא ישראל מאז יולי 2021, הדגיש בנאומו כי בינה מלאכותית לא עומדת להחליף בני אדם בקרוב.
"שורות קוד לעולם לא יחליפו רצפים של DNA; חומרה ותוכנה לעולם לא יוכלו להחליף כלי אנושי", אמר הרצוג, והפציר בכמעט 20,000 המשתתפים ב-Cybertech Global Tel Aviv 2023 כי "האתגר האולטימטיבי" ב"עידן החדש הגדול הזה של גילוי" הוא "לכוון את המראות שלנו לאופק, אבל גם על אחינו בני האדם".
פוליטיקאים אוהבים לעתים קרובות לסיים נאומים עם ציטוטים מעוררי השראה, והנשיא הרצוג לא היה יוצא דופן – וחשף כי הוא ביקש מהבוט ChatGPT להמציא "ציטוט מעורר השראה" משלו, שלשכת נשיא ישראל מאשרים שהופק עם הנחיה לכתוב "ציטוט מעורר השראה על תפקידה של האנושות בעולם של טכנולוגיה על-אנושית".
"אל לנו לשכוח שהאנושיות שלנו היא מה שעושה אותנו מיוחדים באמת", אמר הנשיא הרצוג בכנס הסייבר בתל אביב.
"לא המכונות יעצבו את גורלנו, אלא הלב, המוח והנחישות שלנו ליצור מחר בהיר יותר עבור האנושות כולה."
למידע נוסף ולהרצאה ChatGPT לארגונים ניתן להזמין כאן.
שופט קולומביאני אומר שהוא השתמש ב-ChatGPT בפסיקה
חואן מנואל פדילה שאל את כלי הבינה המלאכותית מה החוק קובע במקרה של מימון רפואי של ילד אוטיסט, תוך שימוש בתקדים כדי לתמוך בהחלטתו
שופט בקולומביה עורר סערה כשהודה שהשתמש בכלי הבינה המלאכותית ChatGPT כשקבע האם הביטוח של ילד אוטיסט צריך לכסות את כל עלויות הטיפול הרפואי שלו. הוא גם השתמש בתקדימים מפסיקות קודמות כדי לתמוך בהחלטתו.
חואן מנואל פדילה, שופט בעיר קרטחנה שבאיים הקריביים, הגיע למסקנה כי כל ההוצאות הרפואיות ועלויות ההובלה של הילד ישולמו על ידי התוכנית הרפואית שלו, שכן הוריו לא יכלו לעמוד בהן.
אמנם פסק הדין עצמו לא עורר מהומה רבה, אך עצם שילוב שיחותיו של השופט עם ChatGPT הם אלו שעוררו סערה. המסמכים המשפטיים מראים שהשופט פדילה שאל את Chat GPT האם קטין אוטיסט פטור מתשלום עמלות עבור הטיפולים שלו. תגובת Chat GPT שתועדה במסמכי פסק הדין תאמה במקרה או שלא במקרה את פסיקת הדין של השופט: "כן, זה נכון. על פי התקנות בקולומביה, קטינים המאובחנים עם אוטיזם פטורים מתשלום אגרות עבור הטיפולים שלהם".
המקרה עורר דיון על השימוש בבינה מלאכותית בחוק וזכה לביקורת מצד כמה מעמיתיו של פדילה. מנוע ה-AI של חברת OPEN AI בשם Chat GPT מוזנת בקטעי טקסט נרחבים בכדי ליצור תגובות מושכלות. אולם אך הוכח שלעיתים מספק המנוע תשובות לא אמינו שאינן מסתמכות על עובדות אמיתיות.
הפלטפורמה המתהווה עוררה אזהרה בשבועות האחרונים, כולל בבתי ספר, שבהם מורים חוששים שהפלטפורמה של OpenAI עשויה לשמש תלמידים לגניבת דעת.
פדילה הגן על השימוש שלו בטכנולוגיה, והציע שהיא יכולה להפוך את מערכת המשפט הנפוחה של קולומביה ליעילה יותר. השופט השתמש גם בתקדים מפסיקות קודמות כדי לתמוך בהחלטתו. הוא טען ש-ChatGPT וכלי AI נוספים מסוג זה, עשויות להיות שימושיות כדי להקל על ניסוח טקסטים, אך לא במטרה להחליף שופטים.
השופט טען כי Chat GPT מבצע שירותים שניתנו בעבר על ידי מזכירה ועשתה זאת בצורה מאורגנת, פשוטה ומובנית שיכולה לשפר את זמני התגובה במערכת המשפט.
פרופ' חואן דיוויד גוטיירז מאוניברסיטת רוסריו היה בין אלה שהביעו חוסר אמון בהודאת השופט. הוא קרא להכשרה דחופה של "אוריינות דיגיטלית" לשופטים. קולומביה אישרה חוק בשנת 2022 המציע שעורכי דין ציבוריים צריכים להשתמש בטכנולוגיות היכן שניתן כדי לייעל את עבודתם.
אוקטביו טז'ירו, שופט בבית המשפט העליון של קולומביה, אמר כי בינה מלאכותית גרמה לבהלה מוסרית בחוק מכיוון שאנשים חששו שרובוטים יחליפו שופטים, אך הוא חזה שהכלי כנראה יהפוך בקרוב מקובל ונפוץ.
מערכת המשפט צריכה להפיק את המרב מהטכנולוגיה מהכלי, אך תמיד תוך הקפדה על אתיקה ולקחת בחשבון שמנהל הצדק הוא בסופו של דבר בן אדם, אמר טז'ירו. יש לראות בזה מכשיר המשרת את השופט לשיפור כושר השיפוט שלו. אנחנו לא יכולים לאפשר לכלי להיות חשוב יותר מהאדם.
כשנשאל ה-Chat GPT לדעתו בעניין, השיב המנוע כי שופטים לא צריכים להשתמש ב-ChatGPT בעת פסיקה בתיקים משפטיים. זה לא תחליף לידע, מומחיות ושיקול דעת של שופט אנושי. עיתונאים צריכים לנקוט משנה זהירות כשהם משתמשים בציטוטים שנוצרו על ידי ChatGPT במאמרים שלהם הוסיף הכלי.
למידע נוסף ולהרצאה ChatGPT לארגונים ניתן להזמין כאן.