כשהאלגוריתם מתחפש לעיתונאי: היקף חובת הגילוי במסגרת יצירה עיתונאית מלאכותית

המאמר זכה במקום הרביעי בתחרות הכתיבה של הפורום הישראלי למשפט וחירות לסטודנטים למשפטים ע״ש ינאי כהן ז״ל לשנת תשפ״ה. המאמר בוחן עיתונות אלגוריתמית כצורת הטעיה צרכנית הפוגעת באמון הציבור, וטוען לחובת גילוי ברורה לגבי שימוש בבינה מלאכותית בתוכן חדשותי, מכוח חוק הגנת הצרכן, ערכי הדמוקרטיה והזכות למידע אמין.
Getting your Trinity Audio player ready...
מבוא

העיתונות נתפסת זה דורות כ"שומרת הסף" של הדמוקרטיה, עיניים רואות ואוזניים שומעות עבור הציבור. אך מה קורה כאשר מי שנמצא מאחורי המקלדת, אינו עיתונאי בשר ודם, אלא אלגוריתם? השאלה חדלה להיות תיאורטית כאשר אתר החדשות האמריקאי CNET נאלץ להודות כי פרסם עשרות כתבות שנכתבו על ידי מערכת בינה מלאכותית מבלי לגלות זאת לקוראיו.[1] אחריו, הצהובון הגרמני Die Aktuelle הבטיח לעוקביו ריאיון בלעדי עם נהג המרוצים לשעבר מייקל שומאכר הסובל מפגיעה מוחית ובעקבותיה לא התבטא בפומבי, ריאיון שהתברר כמזויף ושנוצר כולו על ידי בינה מלאכותית ויצר סנסציה.[2]

לתופעה הזו כבר יש שם: "עיתונות אלגוריתמית", מונח שנטבע כבר בעשור הקודם,[3] ומשמעותו שימוש באלגוריתמים ליצירת כתבות, באופן שמחליף לגמרי תהליכים שבעבר היו נחלתם הבלעדית של עיתונאים אנושיים. התופעה קורמת עור וגידים גם כאן בישראל. כלי תקשורת מרכזיים דוגמת ישראל היום וגלובס הצהירו כי החלו לשלב תכנים שנוצרו בידי בינה מלאכותית.[4] אם כך, מהי בכלל "ידיעה עיתונאית" בעידן אלגוריתמים? והאם הציבור זכאי לדעת מי עומד מאחוריה?

מכאן, מתחדדת השאלה המשפטית: האם ניתן לחייב כלי תקשורת לסמן תוכן שנוצר באמצעות בינה מלאכותית על ידי החלת הוראות חוק הגנת הצרכן, למשל, כך שאי־גילוי בדבר שימוש בבינה מלאכותית ייחשב להטעיה הפוגעת בזכות הציבור למידע אמין ושקוף?

במאמר זה נציג מדוע כתבות שנוצרו בידי אלגוריתם בלי סימון ככאלה, יכולות להיכנס לגדרי הטעיה צרכנית, ולפיכך נדרשת חובת גילוי ייחודית בחוק או בפסיקה.

א. בינה מלאכותית ועיתונות אלגוריתמית: סדר עולמי חדש

העשור השלישי של המאה ה־21 מתאפיין בפריצת דרך טכנולוגית שמשיקה לכל תחומי החיים, ובהם שוק העיתונות.[5] יישומי בינה מלאכותית כגון NLG (Natural Language Generation), מאפשרים להמיר נתונים גולמיים לכתבות אוטונומיות.[6] בישראל ובחו״ל כלי תקשורת מרכזיים כבר שילבו תכנים שנוצרו בידי מערכות כאלה.[7]

היתרונות ברורים: פרודוקטיביות, מענה לדרישה לחדשות מיידיות, וייעול העבודה כך שעיתונאים יוכלו להתמקד בתחקירים ובפרשנות.[8] אך לצידם, שלושה סיכונים מרכזיים: "הזיות בינה מלאכותית", כפי שכינתה השופטת כנפי־שטייניץ הפקת תוצרים שגויים עובדתית;[9] "הקופסה השחורה", חוסר שקיפות באשר להיגיון שמוביל את האלגוריתם בבחירת מילים, נתונים או סדרי עדיפויות, מה שמקשה על עיתונאים להבין ולבקר את פעולת הבינה המלאכותית ואת התוצר הסופי;[10] והצפת מידע, שפע של כתבות אוטומטיות המכביד על הקורא ומקהה את יכולתו לברור מידע אמין מתוך ההיצע הרחב.[11]

המחלוקת המחקרית נוגעת לשאלה האם האלגוריתמים יחליפו עיתונאים או ישלימו אותם.[12] התפיסה הרווחת היא שהתועלת משולבת: האלגוריתם מבצע מטלות שגרתיות ומהירות, ואילו העיתונאי מוסיף פרשנות, ביקורת ויצירתיות, יכולות אנושיות שלא ניתנות לשעתוק מלא. זהו סמן הגבול. עיתונות אלגוריתמית נטו, נוצרת כולה מנתונים מובנים וללא תרומה אנושית.

בעוד עיתונאי אנושי נושא באחריות מקצועית ואתית, האלגוריתם חסר אחריות משפטית או מוסרית. בהיעדר סימון ברור, הקורא עלול להאמין שמדובר ביצירה אנושית, הטעיה הפוגעת לא רק בצרכן היחיד אלא גם באמון הציבור במוסד העיתונות כולו. המסקנה המשפטית, היא שהמוצר הנצרך כבר איננו עבודה עיתונאית עם ערך אנושי וסטנדרטים מקצועיים. אנו מציעים מונח חדש: "מידע דמוי־עיתונאי", לתיאור תכנים הנחזים להיות ידיעה חדשותית, אך בפועל נוצרים בידי אלגוריתם באופן שמטשטש את הגבול בין דיווח עיתונאי לבין מוצר מלאכותי.

ב. המסגרת המשפטית

חוק הגנת הצרכן הוא התשתית המרכזית להגנה מפני מצגי שווא והטעיות בדין הישראלי. חל איסור על הצגת מצג שווא לגבי טיבו, מהותו או תכונותיו של נכס או שירות.[13] "נכס" כולל גם טובין וגם שירות,[14] מה שמאפשר החלת ההוראות הן על עיתון פיזי והן על תוכן מקוון. בית המשפט פירש את החוק כך שיחול גם על מחדלי אי־גילוי: הימנעות ממסירת מידע מהותי עשויה לשמש כשלעצמה הטעיה צרכנית, ואף נקבע כי די בעצם קיומה של הטעיה העלולה להטעות, גם ללא הוכחת הסתמכות.[15]

על רקע זה התפתחה פסיקה רלוונטית בתחום התקשורת, ובראשה שתי תובענות ייצוגיות שאושרו בהסדרי פשרה. בעניין עטיה,[16] נידונה שאלת הפרסומות הסמויות באתר ynet. השופט כבוב הבהיר שגולש חינמי באתר חדשותי נחשב "לקוח" כהגדרתו בחוק משום שהגולש "משלם" בחשיפתו לפרסומות.

עניין יתד נאמן המשיך קו זה, וקבע שליבת חוק הגנת הצרכן היא איסור ההטעיה, כפי שעולה מדברי ההסבר להצעת החוק.[17] בית המשפט בירושלים עמד על כך שהחובה אינה מתמצה באיסור אמירות שקריות, אלא כוללת גם חובת הצגת מלוא התמונה. תוכן עמום או שנחזה לכתבה עיתונאית, נכנס לגדר ההטעיה האסורה.[18] בג"ץ תרקומיר הדגיש שהטעיה סמויה מסוכנת אף יותר מהטעיה גלויה, משום שהיא נשענת על אמון הציבור בתקשורת.[19]

עם זאת, לא כל כלי התקשורת פועלים במודל מסחרי. תאגיד השידור הציבורי ממומן מכספי ציבור ונמצא תחת פיקוח מבקר המדינה,[20] אך מחויב אף הוא בשקיפות מוגברת מכוח אופיו הציבורי ומעמדו החברתי. הדבר תומך בקביעה שחובת הגילוי צריכה לחול על כלל גופי התקשורת, ציבוריים ופרטיים כאחד.

נדמה כי גם המחוקק עצמו הכיר בצורך בהסדרה ייחודית. לאחרונה הוגשה הצעת חוק המחייבת סימון ברור של פרסומות שנוצרו או נערכו באמצעות בינה מלאכותית.[21] אומנם היא מתמקדת בפרסום ולא בחדשות, אך היא מבססת את התפיסה כי שימושי AI מחייבים חובת גילוי ייחודית, ומחזקת את ההיגיון בהחלת חובת גילוי גם בתוכן עיתונאי.

לפיכך, אף שחוק הגנת הצרכן מספק בסיס ראשוני, עיתונות איננה "מוצר" בלבד. בניגוד לעסקאות מסחריות קלאסיות, לעיתונות מחויבות ציבורית ותפקיד חשוב בדמוקרטיה, ולפיכך יש מקום לאינטגרציה עם כללים מדיני התקשורת. חובת סימון ברורה בין פרסום לתוכן מערכתי,[22] חובת הגינות ודיוק ואחריות מוגברת של כלי תקשורת בשל כוח ההשפעה שלהם,[23] והחלת כללים אלה גם על תכנים שנוצרו בידי אלגוריתמים.

ג. משפט משווה

בישראל טרם גובשה אסטרטגיה לאומית מקיפה בתחום הבינה המלאכותית. דוח מבקר המדינה מ־2024 התריע כי חרף החלטות ממשלה, אין גוף מתכלל שמוביל את התחום, והדיון מתנהל בעיקר ברמה ענפית.[24] מצב זה יוצר פער בין ישראל לבין מדינות אחרות שהקדימו להסדיר את הסוגיה.

האיחוד האירופי הוא הבולט ביותר בחקיקה רחבה לרגולציית בינה המלאכותית. בשנת 2024 התקבלה חקיקת AI Act המבוססת על מדרג סיכונים.[25] החוק אוסר לחלוטין על שימושים שנחשבים בלתי קביליםUnacceptable Risk) ) כגון זיהוי רגשות במקומות עבודה או מוסדות חינוך, דירוג חברתי על בסיס נתונים אישיים, או זיהוי ביומטרי במרחב הציבורי (למעט חריגים של ביטחון לאומי). בקטגוריה נפרדת של חובת גילוי (Transparency Obligations) מטיל ה־AI Act חובת סימון נקודתית בכל מקרה שבו תוכן נוצר או עובד בידי בינה מלאכותית, ובפרט תכנים סינתטיים או "דיפ פייק". כמו כן, כאשר המשתמש מקיים אינטראקציה עם מערכת מבוססת AI (כגון צ'אטבוט), עליו להיות מיודע שהוא מתקשר עם מכונה. מטרת ההסדרה היא להבטיח שהציבור יוכל לזהות תכנים מלאכותיים באמצעות הצגה ברורה שאינה ניתנת להטעיה.

בנוסף, החוק מגדיר קטגוריה של "שימושים בסיכון גבוה"High Risk) ), החלה על מערכות הפועלות בתחומים רגישים. על ספקיהן ומפתחיהן מוטלות חובות שקיפות ובקרה מוגברות ודרישות רגולטוריות כבדות. יצירת תוכן אוטומטי בהיקף נרחב ובהקשר רגיש, כמו לדוגמה מערכת שמפיצה תוכן פוליטי או חדשותי העלול להשפיע על תהליכים דמוקרטיים (בחירות), עשויה להיחשב "שימוש בסיכון גבוה" ולחייב עמידה בסטנדרטים מחמירים.

בכך מתווה האיחוד האירופי הבחנה ברורה: שימוש בבינה מלאכותית ליצירת תוכן מותר כשהוא מלווה בגילוי ברור; אך כאשר התוכן משמש להטעיה או למניפולציה בתחומים בעלי השלכה על זכויות יסוד, הוא נכנס למסגרת של "סיכון גבוה".

בארצות הברית אין רגולציה פדרלית כוללת, אלא הנחיות מבוזרות ויוזמות חקיקה שטרם הבשילו לכדי חוק.[26] נציבות הסחר הפדרלית FTC)) פועלת בעיקר בכלים קיימים של הגנת הצרכן ופרסום מטעה, בעוד האחריות נותרת ברובה בידי גופי תעשייה וולונטריים.[27]

הממלכה המאוחדת נוקטת בגישה דומה: הימנעות מחקיקה ייעודית וחיזוק רגולטורים קיימים, דוגמת Ofcom, תוך הדגשת שקיפות והוגנות ושמירה על גמישות לחדשנות.[28]

השוואה זו מלמדת כי אף שהאירופאים בחרו בהסדרה מחמירה, ואילו ארצות הברית ובריטניה בגישה זהירה ומבוזרת, המכנה המשותף הוא ההכרה בצורך בשקיפות ובמתן כלים לציבור לזהות תכנים סינתטיים. הלקח לישראל הוא שהימנעות מהסדרה עלולה לערער את אמון הציבור, ומכאן הצורך לבחון כלים מתאימים, בין אם חקיקה ייעודית, ובין אם החלת הדין הקיים בפסיקה.

ד. מאחורי הכותרות המסגרת הנורמטיבית

הדיון בעיתונות אלגוריתמית אינו רק צרכני פרוצדורלי, אלא בעל ממד חוקתי. חופש העיתונות וזכות הציבור לדעת אינם מתמצים בזכות להפצת מידע, אלא כוללים גם את הזכות לקבל מידע אמין ושקוף.

כבר בשנות ה־90, התריעה ועדת צדוק[29] מפני ניגודי עניינים, וציינה:

"במצב של ניגוד עניינים, ייתכן שהעיתונאי או העיתון לא ימלאו את אחד מתפקידיהם […] מבלי שכך הם יצטיירו בעיני הקוראים, הנותנים בהם אמון […] בנסיבות אלה, נשקפת לאזרח הסכנה שבהסתמכות על משענת קנה רצוץ, תוך אשליה שהמשענת יציבה ואיתנה".[30]

אזהרה זו רלוונטית גם כיום, שעה שתוכן המופק בבינה מלאכותית עשוי לשאת אינטרסים סמויים של יוצריו, ותשמש בסיס נורמטיבי לדיון בענייננו.

נשיא ביהמ"ש העליון לשעבר, אהרן ברק, המשיך קו מחשבה זה וב־2001 הציע להטיל על כלי תקשורת חובות מהמשפט הציבורי.[31] ברק כתב כי "חובה על העיתון הפרטי לפעול בהגינות, באובייקטיביות, ללא ניגוד עניינים ומתוך שוויון, כפי שכל מי שחב נאמנות לציבור חייב לפעול", ולפיכך ניתן לראות בעיתון גוף דו־מהותי.[32] המלצות ועדת צדוק לא אומצו, וברק ציין בחיבורו כי לא גיבש עמדה ברורה בסוגיה והוא מעמיד אותה לדיון ולבחינה.[33] הצעה זו לא נטמעה בפסיקה.

היגיון זה רלוונטי לענייננו. אם בעבר החובה נבעה מכוח אחריותו האישית של עיתונאי כלפי קוראיו, הרי שכיום, כשהתוכן מופק בידי מערכת אוטומטית שאינה נושאת באחריות מוסרית או משפטית, האחריות הציבורית עוברת כמעט במלואה לכתפי גוף התקשורת כמוסד. כשתוכן הנוצר אוטומטית מוצג כעיתונות אנושית, נפגעת לא רק אוטונומיית הבחירה של הצרכן הבודד, אלא גם אמון הציבור במוסד העיתונות כעמוד תווך של הדמוקרטיה.

מנגד, יש להכיר גם בערך חופש העיתונות של גופי התקשורת עצמם. תהליכי העבודה העיתונאיים נשמרים לרוב כחסויים, ולא בכדי. קיים אינטרס דמוקרטי מובהק להגן על סודיותם, כדי לאפשר לעיתונאים למלא את תפקידם בחופשיות, להגן על מקורות המידע שלהם ולשמר את עצמאותם כגורם מבקר שלטון. הגבלה רחבה מדי עשויה לבלום חדשנות טכנולוגית ולהטיל דרישות שאינן מידתיות.

לגישתנו, הדיון מוביל לשאלה המשפטית: האם תוכן עיתונאי שנכתב באמצעות בינה מלאכותית, מבלי שהדבר סומן בבירור, עלול להיחשב כהטעיה?

בהתאם להיגיון הפסיקה, התשובה עשויה להיות חיובית. כשם שהסתרת ממד פרסומי מהקורא פוגעת באמונו ומפרה את זכותו לקבל מידע מלא, כך גם הסתרת העובדה שהתוכן הופק בידי אלגוריתם ללא שיקול דעת, עלולה להוות "הטעיה במשתמע". הקורא מאמין שמאחורי המילים עומד עיתונאי בעל אחריות אתית ומקצועית, אך בפועל מדובר במכונה שאינה נושאת באחריות משפטית או מוסרית. ניתן לטעון שהחלת סעיף 2(א) במקרים אלה מתחייבת מתכליות החוק: פיקוח על מסירת מלוא המידע הרלוונטי לצרכן, שמירה על אמון הציבור בשוק התקשורת, והבטחת הוגנות במפגש שבין קוראים לגופי תקשורת.

מהאמור לעיל, עולה כי הדין הקיים ובו חוק הגנת הצרכן ופרשנות הפסיקה, מעניק כלים ראשוניים להתמודדות עם הטעיה בעיתונות אלגוריתמית, אך חסר בהסדרה ישירה ומקיפה. לשיטתנו, ראוי לעגן חובת גילוי ייחודית ביחס לשימוש בבינה מלאכותית בתוכן תקשורתי, כך שכלי תקשורת יחויבו לסמן באופן ברור כתבות שנוצרו באמצעות אלגוריתם. החובה אינה טכנית בלבד, אלא משקפת את ליבת ההגנה הצרכנית: מסירת מלוא המידע הרלוונטי לקורא, כדי שיוכל להפעיל שיפוט ביקורתי עצמאי.

לצד זאת, יש לתמרץ את הענף עצמו לייצר מנגנוני אכיפה פנימיים, כמו כללי אתיקה מחייבים. פתרונות אלו מאזנים בין שמירה על זכות הציבור למידע אמין ושקוף, מבלי לפגוע מעבר לנדרש בחופש העיתונות של כלי התקשורת.

סיכום

בינה מלאכותית כבר אינה תופעה עתידנית אלא כלי עבודה פעיל בתקשורת המייצר כתבות בלחיצת כפתור. אולם כשטקסט כזה מוצג לציבור ללא סימון, נוצר פער מהותי בין ציפיות הקורא למציאות: במקום עבודת עיתונאי בעל אחריות מקצועית ואתית, מוגש מוצר אוטומטי, נטול שיקול דעת ויכולת לשאת באחריות. מוצר שהגדרנו בחיבור זה "מידע דמוי עיתונאי". פער זה חורג מהטעיה צרכנית פרטנית, והופך לפגיעה במרקם הדמוקרטי כולו – בשוק הדעות, באמון הציבור ובזכות למידע אמין ושקוף.

המסגרת המשפטית הקיימת, ובעיקר סעיף 2 לחוק הגנת הצרכן והפסיקה שניתחה מצגים סמויים ופרסומות חבויות, מספקת תשתית לפרשנות מרחיבה שתכלול גם עיתונות אלגוריתמית. אם הסתרת ממד פרסומי מהקורא היא "הטעיה במשתמע", קל וחומר שהסתרת העובדה שמאחורי הטקסט עומד אלגוריתם ולא עיתונאי אנושי מהווה הטעיה.

בהיעדר הסדרה ייחודית בישראל, האחריות נמצאת לפתחם של בתי המשפט ליישם את כללי ההטעיה גם ביחס לתוכן עיתונאי אוטומטי. לצד זאת, יש מקום לעגן חובת גילוי ברורה בחקיקה או בכללי אתיקה מקצועיים. כך ניתן לאזן בין חופש העיתונות של כלי התקשורת לבין ההגנה על אמון הציבור, ולבסס מנגנון פשוט אך חיוני.

בסופו של דבר, עיתונות אלגוריתמית מציבה בפנינו שאלה כפולה: לא רק איך מגנים על הצרכן מהטעיה, אלא גם איך שומרים על תקשורת כמוסד דמוקרטי חיוני בעידן האלגוריתמי. המשפט יכול לתת מענה לפחות לשאלה הראשונה.

 

אזכור מוצע: מאיה רוזן ועומר יסקי "כשהאלגוריתם מתחפש לעיתונאי: היקף חובת הגילוי במסגרת יצירה עיתונאית מלאכותית" רשות הרבים (22.12.2025).


[1] Paul Farhi, A news site used AI to write articles. It was a journalistic disaster, Washingtonpost, January 17, 2023.

[2] Rachel Treisman, A magazine touted Michael Schumacher's first interview in years. It was actually AI, NPR, April 28, 2023.

[3]Matt Carlson, The Robotic Reporter: Automated Journalism and the Redefinition of Labor, Compositional Forms, and Journalistic Authority, 3(3) Digital Journalism (2015).

[4] רפאלה גויכמן "ישראל היום החל להציג כתבות שנכתבו באמצעות בינה מלאכותית" דה מרקר (2023); מערכת גלובס "חדש בקוד האתי של גלובס: נוהל עבודה עם בינה מלאכותית" גלובס (28.11.2024).

[5] ראו לעיל ה"ש 3.

[6] Andreas Graefe, Guide to Automated Journalism (Tow Center for Digital Journalism, Columbia University, 2016).

[7] ראו מקורות לעיל ה"ש 1, 2, 4.

[8] Carl-Gustav Lindén, Decades of Automation in the Newsroom: Why are there still so many jobs in journalism? 5 Digital Journalism, (2017).

[9] בג"ץ 38379-12-24 פלונית נ' בית הדין השרעי לערעורים ירושלים (נבו 23.2.2025).

[10]Nicholas Diakopoulos, Algorithmic Accountability Reporting: On the Investigation of Black Boxes (Tow Center for Digital Journalism, Columbia University, 2014).

[11] E. Kotenidis, Algorithmic Journalism—Current Applications and Future Perspectives (2021).

[12] שם.

[13] סעיף 2 לחוק הגנת הצרכן, התשמ"א־1981.

[14] שם, סעיף 1.

[15] רע"א 2837/98 ארד נ' בזק, נד(1) 600 (נבו 2.3.2000).

[16] ת"צ (מחוזי ת"א) 1715-02-15 עטייה נ' ידיעות אינטרנט (נבו 5.9.2021).

[17] הצעת חוק הגנת הצרכן, התשמ"א־1981, ה"ח 302.

[18] ת"צ (מחוזי י-ם) 53122-05-19 כהן נ' יתד נאמן (נבו 6.8.2023).

[19] בג"ץ 15/96 תרקומיר נ' הרשות השנייה לטלוויזיה ולרדיו, נ(3) 397 (1996).

[20] חוק השידור הציבורי הישראלי, התשע"ד־2014.

[21] הצעת חוק סימון פרסומות המכילות תוכן שנוצר או נערך באמצעות בינה מלאכותית (תיקוני חקיקה), תשפ"ה־2025.

[22] סעיפים 64 ו־65 לחוק הרשות השנייה לטלוויזיה ולרדיו, התש"ן־1990.

[23] סעיף 5 לחוק לחוק הרשות השניה לטלויזיה ורדיו, התש"ן־1990; סעיף 7 לחוק השידור הציבורי הישראלי, התשע"ד־2014; סעיף 2,3 ו־5 לתקנון האתיקה של מועצת העיתונות; בג"ץ 73/53 "קול העם" נ' שר הפנים, ז 871 (1953).

[24] מבקר המדינה, ההיערכות הלאומית בתחום הבינה המלאכותית – דוח מיוחד, משרד מבקר המדינה (סייבר ומערכות מידע), חשוון התשפ״ה (נובמבר 2024), עמוד 4, אתר מבקר המדינה.

[25] Regulation (EU) 2024/1127 of the European Parliament and of the Council of 13 March 2024 Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act), OJ L 2024/1127.

[26] White House Office of Science and Technology Policy, Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People (Oct. 2022).

[27] U.S. Federal Trade Commission, FTC Announces Crackdown on Deceptive AI Claims and Schemes, Press Release, September 13, 2024.

[28] UK Department for Science, Innovation and Technology, A Pro-Innovation Approach to AI Regulation – Policy Paper (Mar. 2023).

[29] הוועדה הציבורית לחוקי העיתונות ("ועדת צדוק"). דין וחשבון הוועדה הציבורית לחוקי העיתונות (1997).

[30] סעיף 29 לדו"ח דין וחשבון הוועדה הציבורית לחוקי העיתונות ("ועדת צדוק") (1997).

[31] אהרן ברק "המסורת של חופש הביטוי בישראל ובעיותיה" משפטים כז 223 (1997).

[32]  עידו באום "להתיר את קשרי ההון-שלטון-עיתון: הרעיון המהפכני של אהרון ברק" דה מרקר (14.11.2019).

[33] ברק, לעיל ה"ש 31, בעמ' 246.

אולי יעניין אותך גם

מאמרו של רועי עבודי בוחן חוקים פליליים שאינם נאכפים, מנתח את ערכם האקספרסיבי, משווה בין המשפט המודרני והעברי, וטוען לבחינה מחודשת: ביטול חוקים פוגעניים ושימור חוקים מחנכים גם ללא אכיפה מטעמי כבוד אדם.
עו״ד אורן רוט מציג במאמר ניתוח מקיף ומעמיק של בג״ץ עילת הסבירות, ומראה כי אף ששופטי הרוב הסכימו על עצם סמכותו של בית המשפט לבטל חוקי־יסוד, הם לא חלקו מקור סמכות משותף; המכנה המשותף היחיד הוא תפיסת “הכול שפיט”, שממנה
המאמר זכה במקום החמישי בתחרות הכתיבה של הפורום הישראלי למשפט וחירות לסטודנטים למשפטים ע״ש ינאי כהן ז״ל לשנת תשפ״ה. המאמר בוחן את פערי התקשורת של הרשות השופטת בעידן הדיגיטלי וטוען כי חיזוק אמון הציבור מחייב איזון בין עצמאות שיפוטית לבין