Zoom Logo

0555312101 - מבוא למדעי הנתונים למהנדסים0555312101 - Introduction to Data Science - Shared screen with speaker view
Ran Gilad-Bachrach
13:21
cuer yuc דף סימונים ומושגים להרצאה היום נמצא במודל
הדר בן שושן
26:38
פיזור מעגלי?
יבגניה לוין
27:02
שרק הירוק בקלאסטרים?
bellekriger
27:06
שהערכים האדומים הם הקיצוניים?
נועה קרייצר
27:19
יש הפרדה טובה בין האדומים לירוקים
נועה קרייצר
27:20
?
נועה קרייצר
50:31
סתם שאלה על השב
נועה קרייצר
50:35
כמה אחוזים הם?
noga mudrik
50:52
אםשר לשאול למה הכוונה ב comments on the main code?
נועה קרייצר
51:03
וכמה תרגילים יהיו?
noga mudrik
51:34
תודה
Ayelet Sapir
54:50
האם כל תרגילי הבית יחשבו בציון?
נועה קרייצר
01:11:08
2
הדר בן שושן
01:11:08
2
Rina Tamir
01:11:12
גרף שמאלי
מאי דבס
01:11:16
שמאלי
הדר בן שושן
01:11:22
tnmg
הדר בן שושן
01:11:25
אמצע
נועה קרייצר
01:11:30
אמצע
נועה קרייצר
01:15:40
איך מסתכלים על התוחלת במקרה הזה?
נועה קרייצר
01:17:15
D זה פילוג של הנק החדשות
נועה קרייצר
01:17:20
או שבאמצעותן בנינו את המודל?
Inbar Escusido
01:19:39
אז כדי לבנות את המודל לא תשתמש בנתונים של ילדים בגיל חמש?
inbar zolkov
01:23:58
רן , אפשר לתת דוגמא לפילוג שאתה דוגם ממנו בבקשה?
מאי דבס
01:24:01
מה זה IID?
דניאל בנויש
01:24:02
אפשר בבקשה לחזור שוב על השקוית הזו
נועה קרייצר
01:25:17
פילוג הכוונה באותה קבוצת אנשים נניח?
נועה קרייצר
01:25:21
או פילוג סטטיסטי?
מאי דבס
01:26:07
אה אוקיי תודה
inbar zolkov
01:26:24
שאתה אומר פילוג לחולי קורונה למה אתה מתכוון?
Noga Kertes
01:27:25
אבל לא תמיד אתה יודע בדיוק איך האוכלוסיה מתפלגת
נועה קרייצר
01:28:57
אז בדוגמה שנתת גם לאימון וגם לבניית המודל תגריל אנשים ממדגם האוכלוסין?
inbar zolkov
01:32:50
איזה כיףףף
ofirm
01:33:14
לא הבנתי תמשחק
Rina Tamir
01:33:24
.אנחנו רואים לפני שאתה אומר
inbar zolkov
01:33:29
לא הבנתי את המשחק חחח
ofirm
01:35:20
6 ,k,i
ofirm
01:35:23
הייתי קרוב
inbar zolkov
01:35:29
מלך
ofirm
01:35:31
מלכה לב
ofirm
01:35:37
kt grcc,
ofirm
01:35:40
לא ערבבת
הדר בן שושן
01:39:51
מה היחסים בינהם?
ofirm
01:41:23
אם יש לי אבל 1000 קלפים יש יתרון בלבנות אלגוריתם על 1,2 וכל פעם להוסיף עוד קלף וככה ללמוד את השיטה ולשפר את האלגוריתם עם כל האלף קלפים?
נועה קרייצר
01:45:25
אפשר רגע להחזיר את המצגת לשקופית של הגרפים?
נועה קרייצר
01:45:30
של הטסט והאימון?
נועה קרייצר
01:47:04
תודה:)
inbar zolkov
01:47:27
המטרה היא להגיע לשגיאה דומה של האימון ? או לשגיאה הכי קטנה שאפשר?
Ran Gilad-Bachrach
02:01:22
לגבי השאלה של ענבר: המטרה שלנו היא להגיע לשגיאת הכללה קטנה ככל הניתן
נועה קרייצר
02:21:31
אפשר קצת להאט?
שרה שטרית
02:25:35
מה זה D?
נועה קרייצר
02:28:38
מה כתוב באדום?
Rina Tamir
02:30:16
.לא
נטע תאודור
02:32:09
אתה מתייחס לאפסילון כשגיאה גדולה? הרי מצפים תמיד שתהיה איזשהי שגיאת הכללה גדולה מאפס, לא?
Roi Fridman
02:32:15
רק כדי לוודא הבנה: אז הרעיון של המשפט הוא שאם שגיאת האימון היא אפס אז שגיאת ההכללה תהיה קטנה גם כן?
נועה קרייצר
02:37:21
ממה נובע השיוויון?
Inbar Escusido
02:50:29
תכתוב
Roi Fridman
02:50:30
שקף
הדר בן שושן
02:50:31
לוח
דניאל בנויש
02:50:32
לוח
שרה שטרית
02:50:33
שקף
יבגניה לוין
02:50:33
לוח
ofirm
02:50:34
שקף
נטע תאודור
02:50:34
יותר נוח על שקף
מאי ארזי
02:50:44
שקף
bellekriger
02:50:48
שקף
ofirm
02:50:52
שקף
inbar zolkov
02:50:53
אפשר על השקף רק שיהיה לאט בבקשה
הדר בן שושן
02:50:56
אם על שקף אז לאט בבקשה
נועה קרייצר
02:52:05
שוב את המשפט האחרון?
מאי דבס
02:55:49
אז זה הכל בהנחה שבהכרח יש היפותזה שעבורה שגיאת ההכללה/האימון היא 0?
נטע תאודור
02:56:48
תוכל לחזור שוב על המשפט האחרון?
מאי דבס
02:58:54
לא הבנתי איך אפשר לדעת בוודאות שיש היפותזה ששגיאת ההכללה שלה היא 0?
inbar zolkov
03:00:00
שאתה אומר היפותזה אתה מתכוון לפונקציה שמתארת את ערכי הנקודות והשגיאה שלה היא מינימלית?
inbar zolkov
03:01:26
אמ יותר גדול
Rina Tamir
03:01:37
.יש יותר סיכוי שיהיה over fitting?
נועה קרייצר
03:02:51
שוב ההסבר עם הפיקסלים?
בר גליקשטיין
03:03:20
כבר 11 ויש לנו עוד שיעור ..
יריב אדרי
03:06:24
תודה רבה!
Rina Tamir
03:06:26
.תודה!
Inbar Escusido
03:06:27
תודה!
Mika Levron
03:06:31
תודה רבה@
נטע תאודור
03:06:34
תודה