Skip to main content

דין, צדק ובינה מלאכותית (באנגלית)

אורי כץ ואיל זמיר, 2026

שופטים ומקבלי החלטות אחרים ניצבים לעיתים קרובות בפני מתח בין היצמדות לכללים לבין התחשבות בנסיבות הקונקרטיות של המקרה שלפניהם. יותר ויותר החלטות מסוג זה נתמכות ב—ובקרוב אף עשויות להתקבל בידי—בינה מלאכותית, ובכלל זה מודלי שפה גדולים (LLMs). האופן שבו LLMs פותרים מתח זה הוא אפוא בעל חשיבות מכרעת. עם זאת, מעט מאוד ידוע על הדרך שבה LLMs מנווטים בין החלת כללים משפטיים לבין התחשבות בשיקולי צדק. מחקר זה משווה בין החלטותיהם של GPT-4o, Claude Sonnet 4 ו-Gemini 2.5 Flash לבין החלטות של הדיוטות ומשפטנים, לרבות שופטים, במסגרת שישה ניסויי תסריטים (vignettes studies) הכוללים כ-50,000 החלטות.

הממצאים מלמדים כי, בשונה מבני אדם, LLMs אינם מאזנים בין דין לצדק: כאשר הם מונחים לפעול על פי הדין, הם מתעלמים במידה רבה משיקולי צדק הן בהחלטותיהם והן בנימוקיהם; וכאשר הם מונחים להכריע על בסיס צדק, הם מתעלמים מכללים משפטיים. נוסף על כך, בניגוד לבני אדם, דרישה לנימוקים או הצגת תקדימים משפיעות במידה מועטה בלבד על תשובותיהם. הנחיה ל-LLMs להתחשב באמפתיה כלפי בעלי הדין, או בקשה מהם לנבא החלטות שיפוטיות במקום לקבלן בעצמם, מפחיתות במידת מה את הפורמליזם שלהם, אך הם נותרים קשיחים בהרבה מבני אדם.

מעבר לפורמליזם שלהם, LLMs מפגינים שונות ("רעש") נמוכה בהרבה מזו של בני אדם. אף שעקביות גבוהה יותר היא בדרך כלל מעלה בקבלת החלטות, המאמר דן גם בחסרונותיה. המחקר מציג מתודולוגיה להערכת LLMs עכשוויים ועתידיים במצבים שבהם אין תשובה משפטית אחת שניתן להראות כי היא נכונה באופן מובהק.

טרם פורסם. המאמר זמין בSSRN