בלי ששמנו לב: מחצית מהרופאים בישראל - הן רופאות
מקצוע הרפואה הופך בשנים האחרונות ליותר ויותר נשי - ובבתי הספר לרפואה נשים הן כבר רוב. האם זה אומר שנשים נהנות מאותו מעמד ותגמול? מה זה יעשה לתחום? ומי הבכירה שדווקא מודאגת מהמגמה? צפו בפרק ראשון בסדרה "דוקטורית"
תאריך ושעת עדכון:31/10/2018 14:06
משך הסרטון: 2:53 דקות