בלי ששמנו לב: מחצית מהרופאים בישראל - הן רופאות
מקצוע הרפואה הופך בשנים האחרונות ליותר ויותר נשי - ובבתי הספר לרפואה נשים הן כבר רוב. האם זה אומר שנשים נהנות מאותו מעמד ותגמול? מה זה יעשה לתחום? ומי הבכירה שדווקא מודאגת מהמגמה? צפו בפרק ראשון בסדרה "דוקטורית"
02:53 31/10/2018 14:06
לכל כתבות ארכיון וידאו >>