בלי ששמנו לב: מחצית מהרופאים בישראל - הן רופאות
מקצוע הרפואה הופך בשנים האחרונות ליותר ויותר נשי - ובבתי הספר לרפואה נשים הן כבר רוב. האם זה אומר שנשים נהנות מאותו מעמד ותגמול? מה זה יעשה לתחום? ומי הבכירה שדווקא מודאגת מהמגמה? צפו בפרק ראשון בסדרה "דוקטורית"