|
|
|
°ÈÇнÀ °³³ä ¹× »ê¾÷ÇöÀåÀÇ Àû¿ë»ç·Ê
|
|
|
ÀÓÇö±³, ÀÓÇö±³
¤Ó
µµ¼ÃâÆÇ È«¸ª(È«¸ª°úÇÐÃâÆÇ»ç)
¤Ó
Reinforcement Learning
|
|
|
|
- Á¦ÈÞ¸ô ÁÖ¹® ½Ã °í°´º¸»ó, ÀϺΠÀ̺¥Æ® Âü¿© ¹× ÁõÁ¤Ç° ÁõÁ¤, ÇÏ·ç/´çÀÏ ¹è¼Û¿¡¼ Á¦¿ÜµÇ¹Ç·Î Âü°í ¹Ù¶ø´Ï´Ù.
-
-
-
ÀÌ Ã¥Àº °ÈÇнÀ °³³ä ¹× »ê¾÷ÇöÀåÀÇ Àû¿ë»ç·Ê¿¡ ´ëÇØ ´Ù·é µµ¼ÀÔ´Ï´Ù. ±âÃÊÀûÀÌ°í Àü¹ÝÀûÀÎ ³»¿ëÀ» ÇнÀÇÒ ¼ö ÀÖ½À´Ï´Ù.
-
-
CHAPTER 1 ¿Ö °È ÇнÀÀΰ¡?
1.1 ¿Ö Áö±Ý °È ÇнÀÀÌ ÇÊ¿äÇÑ°¡?
1.2 ±â°è ÇнÀ
1.3 °È ÇнÀ
1.3.1 ¾ðÁ¦ °È ÇнÀÀ» »ç¿ëÇØ¾ß ÇÒ±î?
1.3.2 °È ÇнÀÀ» Àû¿ëÇÑ ¾îÇø®ÄÉÀ̼Ç
1.4 RL Á¢±Ù ¹æ½ÄÀÇ ºÐ·ù
1.4.1 Model-Free or Model-based
1.4.2 ¿¡ÀÌÀüÆ®°¡ Àü·«À» »ç¿ëÇÏ°í ¾÷µ¥ÀÌÆ®ÇÏ´Â ¹æ¹ý
1.4.3 ÀÌ»ê(Discrete) ȤÀº ¿¬¼Ó(Continuous) Çൿ
1.4.4 ÃÖÀûÈ ¹æ¹ý
1.4.5 Á¤Ã¥ Æò°¡¿Í °³¼±
1.5 °È ÇнÀÀÇ ±âº» °³³ä
1.5.1 ù ¹ø° °È ÇнÀ ¾Ë°í¸®Áò
1.5.2 RLÀº ML°ú µ¿ÀÏÇմϱî?
1.5.3 º¸»ó°ú Çǵå¹é
1.6 Çй®À¸·Î¼ÀÇ °ÈÇнÀ
1.7 ¿ä¾à
1.8 Ãß°¡ ÀÚ·á
Reference
CHAPTER 2 ¸¶¸£ÄÚÇÁ °áÁ¤ ÇÁ·Î¼¼½º , µ¿Àû ÇÁ·Î±×·¡¹Ö°ú ¸óÅ×Ä«¸¦·Î ¹æ¹ý
2.1 Multi-Arm Bandit Å×½ºÆ®Çϱâ
2.1.1 º¸»ó ¿£Áö´Ï¾î¸µ
2.1.2 Á¤Ã¥ Æò°¡: °¡Ä¡ ÇÔ¼ö
2.1.3 Á¤Ã¥ °³¼±: ÃÖ°í Çൿ ¼±ÅÃ
2.1.4 ½Ã¹Ä·¹ÀÌ¼Ç È¯°æ
2.1.5 ½ÇÇè ½ÇÇà
2.1.6 ¥å-greedy ¾Ë°í¸®Áò °³¼±Çϱâ
2.2 ¸¶¸£ÄÚÇÁ ÀÇ»ç °áÁ¤ ÇÁ·Î¼¼½º(Markov Decision Process)
2.2.1 Á¦°í °ü¸®
2.2.2 Á¦°í °ü¸® ½Ã¹Ä·¹À̼Ç
2.3 Á¤Ã¥°ú °¡Ä¡ ÇÔ¼ö
2.3.1 °¨°¡µÈ º¸»ó
2.3.2 »óÅÂ-°¡Ä¡ ÇÔ¼ö·Î º¸»ó ¿¹Ãø
2.3.3 Çൿ-°¡Ä¡ ÇÔ¼ö·Î º¸»ó ¿¹ÃøÇϱâ
2.3.4 ÃÖ...ÀûÀÇ Á¤Ã¥
2.4 ¸óÅ×Ä«¸¦·Î Á¤Ã¥ »ý¼º
2.5 µ¿Àû ÇÁ·Î±×·¡¹ÖÀ» »ç¿ëÇÑ °¡Ä¡ ¹Ýº¹
2.5.1 °¡Ä¡ ¹Ýº¹ ±¸Çö
2.5.2 °¡Ä¡ ¹Ýº¹ °á°ú
2.6 ¿ä¾à
2.7 Ãß°¡ ÀÚ·á
Reference
CHAPTER 3 ½Ã°£Â÷ ÇнÀ, Q-learning ¹× £¿-½ºÅÜ ¾Ë°í¸®Áò
3.1 ½Ã°£Â÷ ÇнÀÀÇ Á¤ÀÇ
3.2 Q-·¯´×(Q-learning)
3.3 SARSA
3.4 Q-·¯´×°ú SARSA ºñ±³
3.5 ¿¬±¸ »ç·Ê: ¾îÇø®ÄÉÀÌ¼Ç ÄÁÅ×ÀÌ³Ê ÀÚµ¿ È®ÀåÀ» ÅëÇÑ ºñ¿ë Àý°¨
3.6 »ê¾÷ Àû¿ë »ç·Ê: ±¤°í ½Ç½Ã°£ ÀÔÂû
3.6.1 MDP Á¤ÀÇ
3.6.2 ½Ç½Ã°£ ÀÔÂû ȯ°æÀÇ °á°ú
3.6.3 Ãß°¡ °³¼± »çÇ×
3.7 Q-·¯´×ÀÇ È®Àå
3.7.1 ´õºí Q-·¯´×(Double Q-learning)
3.7.2 Áö¿¬ Q-·¯´×(Delayed Q-learning)
3.7.3 Ç¥ÁØ, ´õºí, Áö¿¬ Q-·¯´× ºñ±³
3.7.4 ´ë¸³ÇнÀ(Opposition Learning)
3.8 n-½ºÅÜ(n-Step) ¾Ë°í¸®Áò
3.9 ±×¸®µå ȯ°æ¿¡¼ £¿-½ºÅÜ ¾Ë°í¸®Áò
3.10 Ÿ´ç¼º ÃßÀû(eligibility traces)
3.11 Ÿ´ç¼º ÃßÀûÀÇ È®Àå
3.11.1 Watkins¡¯s Q(¥ë)
3.11.2 Fuzzy wipes in Watkins¡¯s Q(¥ë)
3.11.3 ºü¸¥ Q-·¯´×(Speedy Q-Learning)
3.11.4 Ÿ´ç¼º ÃßÀûÀÇ ÀúÀå°ú ´ëü
3.12 ¿ä¾à
3.13 Ãß°¡ ÀÚ·á
Reference
CHAPTER 4 ½ÉÃþ Q-³×Æ®¿öÅ©(Deep Q-Networks, DQN)
4.1 µö·¯´× ±¸Á¶
4.1.1 µö·¯´×ÀÇ ±âº»ÀûÀÎ ±¸Á¶
4.1.2 ¸¹ÀÌ »ç¿ëÇÏ´Â ½Å°æ¸Á ±¸Á¶
4.1.3 µö·¯´× ÇÁ·¹ÀÓ¿öÅ©
4.1.4 ½ÉÃþ °ÈÇнÀ
4.2 ½ÉÃþ Q-·¯´×(Deep Q-Learning)
4.2.1 °æÇè Àç»ý(Experience Replay)
4.2.2 Q-³×Æ®¿öÅ© º¹Á¦
4.2.3 ´º·² ³×Æ®¿öÅ© ±¸Á¶
4.2.4 DQN ±¸Çö
4.2.5 ¿¹Á¦: CartPole ȯ°æ¿¡¼ DQN
4.2.6 ¿¬±¸ »ç·Ê: ºôµùÀÇ ¿¡³ÊÁö »ç¿ë °¨¼Ò
4.3 Rainbow DQN
4.3.1 ºÐ»ê °ÈÇнÀ(Distributional RL)
4.3.2 ¿ì¼± ¼øÀ§ ±â¹Ý °æÇè Àç»ý(Prioritized Experience Replay, PER)
4.3.3 ³ëÀÌÁö ³×Æ®(Noisy Nets)
4.3.4 µà¾ó¸µ ³×Æ®¿öÅ©(Dueling Networks)
4.4 ¿¹Á¦: Rainbow DQNÀÇ Atrai Games Àû¿ë
4.4.1 °á°ú
4.4.2 Ãß°¡·Î ³íÀÇÇÒ ºÎºÐ
4.5 ´Ù¸¥ DQN ±¸Çö
4.5.1 ŽÇè °³¼±
4.5.2 º¸»ó °³¼±
4.5.3 ¿ÀÇÁ¶óÀÎ µ¥ÀÌÅÍ·Î ÇнÀÇϱâ
4.6 ¿ä¾à
4.7 Ãß°¡ ÀÚ·á
Reference
CHAPTER 5 Á¤Ã¥ ±â¿ï±â ¸Þ¼Òµå
5.1 Á¤Ã¥ Á÷Á¢ ÇнÀÀÇ ÀåÁ¡
5.2 Á¤Ã¥ÀÇ ±â¿ï±â¸¦ °è»êÇÏ´Â ¹æ¹ý
5.3 Á¤Ã¥ ±â¿ï±â(Policy Gradient) ÀÌ·Ð
5.4 Á¤Ã¥ ÇÔ¼ö(Policy Functions)
5.4.1 ¼±ÇüÀûÀÎ Á¤Ã¥(Linear Policies)
5.4.2 ÀÓÀÇÀÇ Á¤Ã¥(Arbitrary Policies)
5.5 ±âº» ±¸Çö(Basic Implementations)
5.5.1 ¸óÅ× Ä«¸¦·Î(REINFORCE)
5.5.2 º£À̽º¶óÀÎÀ» °¡Áø REINFORCE
5.5.3 ±â¿ï±â ºÐ»ê °¨¼Ò
5.5.4 £¿-½ºÅÜ ¾×ÅÍ-Å©¸®Æ½°ú ÀÌµæ ¾×ÅÍ-Å©¸®Æ½(Advantage Actor-Critic, A2C)
5.5.5 ¾×ÅÍ-Å©¸®Æ½ÀÇ Å¸´ç¼º ÃßÀû(Eligibility Traces)
5.5.6 ±âº» Á¤Ã¥ ±â¿ï±â ¾Ë°í¸®Áò ºñ±³
5.6 »ê¾÷ Àû¿ë »ç·Ê: ¼ÒºñÀÚ¸¦ À§ÇÑ ÀÚµ¿ ¹°Ç° ±¸¸Å
5.6.1 ȯ°æ: Gym-Shopping-Cart
5.6.2 ±â´ëÄ¡
5.6.3 Shopping Cart ȯ°æÀÇ °á°ú
5.7 ¿ä¾à
5.8 Âü°í ÀÚ·á
Reference
CHAPTER 6 Á¤Ã¥ ±â¿ï±â¸¦ ³Ñ¾î
6.1 Off-Policy ¾Ë°í¸®Áò
6.1.1 Áß¿äµµ »ùÇøµ(Importance Sampling)
6.1.2 Çൿ°ú ŸÄÏ Á¤Ã¥
6.1.3 Off-Policy Q-·¯´×
6.1.4 ±â¿ï±â ½Ã°£Â÷(Gradient Temporal-Difference, GTD) ÇнÀ
6.1.5 Ž¿åÀû-GQ
6.1.6 Off-Policy ¾×ÅÍ-Å©¸®Æ½
6.2 °áÁ¤·ÐÀû Á¤Ã¥ ±â¿ï±â
6.2.1 °áÁ¤·ÐÀû Á¤Ã¥ ±â¿ï±â
6.2.2 ½ÉÃþ °áÁ¤·ÐÀû Á¤Ã¥ ±â¿ï±â(Deep Deterministic Policy Gradients, DDPG)
6.2.3 ÀÌÁß Áö¿¬µÈ ½ÉÃþ °áÁ¤·ÐÀû Á¤Ã¥ ±â¿ï±â(Twin Delayed DDPG, TD3)
6.2.4 ¿¬±¸ »ç·Ê: ¸®ºä¸¦ È°¿ëÇÑ Ãßõ
6.2.5 DPGÀÇ °³¼±
6.3 ½Å·Ú ¿µ¿ª ¹æ¹ý(Trust Region Methods)
6.3.1 Äð¹é-¶óÀÌºí·¯(Kullback Leibler, KL) ¹ß»ê
6.3.2 ÀÚ¿¬ Á¤Ã¥ ±â¿ï±â(Natural Policy Gradients)¿Í ½Å·Ú ¿µ¿ª Á¤Ã¥ ÃÖÀûÈ(Trust Region
Policy Optimization)
6.3.3 ±ÙÁ¢ Á¤Ã¥ ÃÖÀûÈ(Proximal Policy Optimization, PPO)
6.4 ¿¹Á¦: ½ÇÁ¦ ȯ°æ¿¡¼ ¿øÇÏ´Â °÷¿¡ µµ´ÞÇϱâ À§ÇÑ ¼º¸ ¸ðÅÍ È°¿ëÇϱâ
6.4.1 ȯ°æ ¼³Á¤
6.4.2 °ÈÇнÀ ¾Ë°í¸®Áò ±¸Çö
6.4.3 ¾Ë°í¸®ÁòÀÇ º¹À⼺ Áõ°¡½ÃÅ°±â
6.4.4 ½Ã¹Ä·¹À̼ǿ¡¼ ÇÏÀÌÆÛÆĶó¹ÌÅÍ Á¶Á¤
6.4.5 Á¤Ã¥µéÀÇ °á°ú
6.5 ±× ¹ÛÀÇ ´Ù¸¥ Á¤Ã¥ ±â¿ï±â ¾Ë°í¸®Áòµé
6.5.1 ¸®Æ®·¹À̽º(¥ë)
6.5.2 °æÇè Àç»ý ¾×ÅÍ-Å©¸®Æ½(Actor-Critic with Experience Replay, ACER)
6.5.3 Kronecker-Factored ½Å·Ú ¿µ¿ªÀ» È°¿ëÇÑ ¾×ÅÍ Å©¸®Æ½(Actor-Critic Using Kronecker-Factored Trust Regions, ACKTR)
6.5.4 °Á¶Àû ¹æ¹ý
6.6 Á¤Ã¥ ±â¿ï±â ¾Ë°í¸®ÁòµéÀÇ È®Àå
6.6.1 Á¤Ã¥ ±â¿ï±â ¾Ë°í¸®ÁòµéÀÇ ºÐÀ§¼ö ȸ±Í(Quantile Regression in Policy Gradient
Algorithms)
6.7 ¿ä¾à
6.7.1 ¾î¶² ¾Ë°í¸®ÁòÀ» »ç¿ëÇØ¾ß ÇÒ±î?
6.7.2 ºñµ¿±âÀû ¹æ¹ý
6.8 Âü°í ¹®Çå
Reference
CHAPTER 7 ¿£Æ®·ÎÇÇ ¹æ¹ý°ú ¿¬°üµÈ Á¤Ã¥ ¸ðµÎ ¹è¿ì±â
7.1 ¿£Æ®·ÎÇÇ(Entropy)¶õ ¹«¾ùÀϱî?
7.2 ÃÖ´ë ¿£Æ®·ÎÇÇ °ÈÇнÀ
7.3 ¼ÒÇÁÆ® ¾×ÅÍ-Å©¸®Æ½(Soft Actor-Critic, SAC)
7.3.1 SAC ±¸Çö ¼¼ºÎ»çÇ×°ú ÀÌ»ê Çൿ °ø°£
7.3.2 ÀÚµ¿ ¿Âµµ ¸Å°³º¯¼ö Á¶Á¤
7.3.3 ¿¬±¸ »ç·Ê: ÀÚµ¿ÈµÈ ±³Åë °ü¸®¸¦ ÅëÇÑ ´ë±â ÁÙ °¨¼Ò
7.4 ÃÖ´ë ¿£Æ®·ÎÇÇ ¹æ¹ýµéÀÇ È®Àå
7.4.1 ´Ù¸¥ ¿£Æ®·ÎÇÇ ÃøÁ¤ ¹æ¹ýµé(±×¸®°í ¾Ó»óºí)
7.4.2 ´õºí Q-·¯´×ÀÇ »óÇÑ°ªÀ» »ç¿ëÇÑ ³«°üÀû ŽÇè(Optimistic Exploration)
7.4.3 °æÇè Àç»ý(Experience Replay)ÀÇ Á¶Á¤
7.4.4 ºÎµå·¯¿î Á¤Ã¥ ±â¿ï±â
7.4.5 ºÎµå·¯¿î Q-·¯´×(Soft Q-Learning)°ú ±× À¯µµ
7.4.6 °æ·Î ÀÏ°ü¼º ÇнÀ(Path Consistency Learning)
7.5 ¼º´É ºñ±³: SAC vs PPO
7.6 ¾î¶»°Ô ¿£Æ®·ÎÇÇ°¡ ŽÇèÀ» Àå·Á½Ãų±î?
7.6.1 ¿Âµµ ¸Å°³º¯¼ö´Â ŽÇèÀ» ¾î¶»°Ô º¯È½Ãų±î?
7.7 »ê¾÷ Àû¿ë »ç·Ê: ¿ø°Ý Â÷ ¿îÀü ¹è¿ì±â
7.7.1 ¹®Á¦ Á¤ÀÇ
7.7.2 ÈÆ·Ã ½Ã°£ ÃÖ¼ÒÈ
7.7.3 ±ØÀûÀÎ Çൿµé
7.7.4 ÇÏÀÌÆÛÆĶó¹ÌÅÍ Å½»ö
7.7.5 ÃÖÁ¾ Á¤Ã¥
7.7.6 Ãß°¡Àû °³¼± »çÇ×
7.8 ¿ä¾à
7.8.1 Á¤Ã¥ ±â¿ï±â¿Í ºÎµå·¯¿î Q-·¯´× °£ÀÇ µî°¡¼º
7.8.2 ÀÌ°ÍÀÌ ¹Ì·¡¿¡ ÀǹÌÇÏ´Â ¹Ù´Â?
7.8.3 ÀÌ°ÍÀÌ ÇöÀç¿¡ ÀǹÌÇÏ´Â ¹Ù´Â?
Reference
CHAPTER 8 ¿¡ÀÌÀüÆ® ÇнÀ ¹æ¹ý °³¼±
8.1 MDP¿¡ ´ëÇÑ Àç°í
8.1.1 ºÎºÐÀûÀ¸·Î °üÂû °¡´ÉÇÑ ¸¶¸£ÄÚÇÁ °áÁ¤ ÇÁ·Î¼¼½º(Partially Observable Markov
Decision Process, POMDP)
8.1.2 ¿¬±¸ »ç·Ê: ÀÚÀ²ÁÖÇàÂ÷¿¡¼ POMDP »ç¿ë
8.1.3 »óȲº° ¸¶¸£ÄÚÇÁ ÀÇ»ç °áÁ¤ ÇÁ·Î¼¼½º
8.1.4 º¯°æ ÇൿÀÌ ÀÖ´Â MDP
8.1.5 Á¤±ÔÈµÈ MDP
8.2 °èÃþÀû °È ÇнÀ(Hierarchical Reinforcement Learning)
8.2.1 Naive °èÃþÀû °È ÇнÀ
8.2.2 ³»ÀçÀû º¸»óÀÌ ÀÖ´Â °í-Àú ¼öÁØ °èÃþ ±¸Á¶(HIRO)
8.2.3 ÇнÀ ±â¼ú ¹× ºñÁöµµ RL
8.2.4 HRL¿¡¼ ±â¼ú »ç¿ëÇϱâ
8.2.5 HRL °á·Ð
8.3 ´ÙÁß ¿¡ÀÌÀüÆ® °È ÇнÀ(Multi-Agent Reinforcement Learning)
8.3.1 MARL ÇÁ·¹ÀÓ¿öÅ©
8.3.2 Áß¾ÓÁýÁß½Ä È¤Àº ºñÁß¾ÓÁýÁß½Ä
8.3.3 ´ÜÀÏ ¿¡ÀÌÀüÆ® ¾Ë°í¸®Áò
8.3.4 ¿¬±¸ »ç·Ê : UAV¿¡¼ ½Ì±Û ¿¡ÀÌÀüÆ® ºÐ»ê ÇнÀ »ç¿ë
8.3.5 Áß¾Ó ÁýÁᫎ ÈÆ·Ã, ºñ Áß¾Ó ÁýÁß½Ä(ºÐ»ê) ½ÇÇà
8.3.6 ºñÁß¾Ó ÁýÁß½Ä(ºÐ»ê/Å»Áß¾Ó½Ä) ÇнÀ
8.3.7 ´Ù¸¥ Á¶ÇÕ ¹æ¹ý
8.3.8 MARLÀÇ °úÁ¦
8.3.9 MARLÀÇ °á·Ð
8.4 Àü¹®°¡ÀÇ °¡À̵å
8.4.1 Çൿ º¹Á¦
8.4.2 ¸ð¹æ RL
8.4.3 Inverse RL
8.4.4 Ä¿¸®Å§·³ RL
8.5 »õ·Î¿î Æз¯´ÙÀÓ
8.5.1 ¸ÞŸ ÇнÀ(Meta-Learning)
8.5.2 ÀüÀÌ ÇнÀ(Transfer Learning)
8.6 ¿ä¾à
8.7 Ãß°¡ ÀÚ·á
Reference
CHAPTER 9 ½Ç¿ëÀûÀÎ °È ÇнÀ
9.1 RL ÇÁ·ÎÁ§Æ® ¶óÀÌÇÁ »çÀÌŬ
9.1.1 ¶óÀÌÇÁ »çÀÌŬ Á¤ÀÇ
9.2 ¹®Á¦ Á¤ÀÇ: RL ÇÁ·ÎÁ§Æ®¶õ ¹«¾ùÀԴϱî?
9.2.1 ¼øÂ÷ÀûÀÎ RL ¹®Á¦µé
9.2.2 Àü·«ÀûÀÎ RL ¹®Á¦µé
9.2.3 Àú¼öÁØ RL ÁöÇ¥
9.2.4 ÇнÀÀÇ Á¾·ù
9.3 RL °øÇÐ ¹× °³¼±
9.3.1 ÇÁ·Î¼¼½º(°úÁ¤)
9.3.2 ȯ°æ °øÇÐ
9.3.3 »óÅ °øÇÐ ¶Ç´Â »óÅ ǥÇö ÇнÀ
9.3.4 Á¤Ã¥ °øÇÐ
9.3.5 Çൿ °ø°£¿¡ Á¤Ã¥ ¸ÅÇÎ
9.3.6 ŽÇè
9.3.7 º¸»ó ¿£Áö´Ï¾î¸µ(Reward Engineering)
9.4 ¿ä¾à
9.5 Ãß°¡ ÀÚ·á
Reference
CHAPTER 10 ¿î¿µ °È ÇнÀ(Operational Reinforcement Learning)
10.1 ±¸Çö
10.1.1 ÇÁ·¹ÀÓ¿öÅ©
10.1.2 ½ºÄÉÀϸµ RL
10.1.3 Æò°¡
10.2 ¹èÄ¡
10.2.1 ¸ñÇ¥
10.2.2 ¾ÆÅ°ÅØÃÄ
10.2.3 º¸Á¶ µµ±¸
10.2.4 ¾ÈÀü¼º, º¸¾È¼º, À±¸®
10.3 ¿ä¾à
10.4 Ãß°¡ ÀÚ·á
Reference
CHAPTER 11 °á·Ð°ú ¹Ì·¡
11.1 ÆÁ°ú ¼ÓÀÓ¼ö
11.1.1 ¹®Á¦ ÇÁ·¹À̹Ö
11.1.2 ´ç½ÅÀÇ µ¥ÀÌÅÍ
11.1.3 ÈÆ·Ã
11.1.4 Æò°¡
11.1.5 ¹èÆ÷
11.2 µð¹ö±ë
11.2.1 ${ALGORITHM_NAME} Can¡¯t Solve ${ENVIRONMENT}!
11.2.2 µð¹ö±ëÀ» À§ÇÑ ¸ð´ÏÅ͸µ
11.3 °È ÇнÀÀÇ ¹Ì·¡
11.3.1 °È ÇнÀÀÇ ½ÃÀ强
11.3.2 ¹Ì·¡ÀÇ °ÈÇнÀ°ú ¿¬±¸ ¹æÇâ
11.4 ³¡ ¸ÎÀ½
11.4.1 ´ÙÀ½ ´Ü°è
11.4.2 ÀÌÁ¦´Â ´ç½ÅÀÇ Â÷·Ê
11.5 Ãß°¡ ÀÚ·á
Reference
-
-
|
ÀÓÇö±³ [Àú]
|
|
-
-
|
ÀÓÇö±³ [Àú]
|
|
-
-
-
Àüü 0°³ÀÇ ±¸¸ÅÈıⰡ ÀÖ½À´Ï´Ù.
|
ÀÎÅÍÆÄÅ©µµ¼´Â °í°´´ÔÀÇ ´Ü¼ø º¯½É¿¡ ÀÇÇÑ ±³È¯°ú ¹ÝÇ°¿¡ µå´Â ºñ¿ëÀº °í°´´ÔÀÌ ÁöºÒÄÉ µË´Ï´Ù.
´Ü, »óÇ°À̳ª ¼ºñ½º ÀÚüÀÇ ÇÏÀÚ·Î ÀÎÇÑ ±³È¯ ¹× ¹ÝÇ°Àº ¹«·á·Î ¹ÝÇ° µË´Ï´Ù. |
|
±³È¯ ¹× ¹ÝÇ°ÀÌ °¡´ÉÇÑ °æ¿ì |
»óÇ°À» °ø±Þ ¹ÞÀº ³¯·ÎºÎÅÍ 7ÀÏÀ̳» °¡´É
°ø±Þ¹ÞÀ¸½Å »óÇ°ÀÇ ³»¿ëÀÌ Ç¥½Ã, ±¤°í ³»¿ë°ú ´Ù¸£°Å³ª ´Ù¸£°Ô ÀÌÇàµÈ °æ¿ì¿¡´Â °ø±Þ¹ÞÀº ³¯·ÎºÎÅÍ 3°³¿ù À̳», ȤÀº ±×»ç½ÇÀ» ¾Ë°Ô µÈ ³¯ ¶Ç´Â ¾Ë ¼ö ÀÖ¾ú´ø ³¯·ÎºÎÅÍ 30ÀÏ À̳»
»óÇ°¿¡ ¾Æ¹«·± ÇÏÀÚ°¡ ¾ø´Â °æ¿ì ¼ÒºñÀÚÀÇ °í°´º¯½É¿¡ ÀÇÇÑ ±³È¯Àº »óÇ°ÀÇ Æ÷Àå»óÅ µîÀÌ ÀüÇô ¼Õ»óµÇÁö ¾ÊÀº °æ¿ì¿¡ ÇÑÇÏ¿© °¡´É |
|
±³È¯ ¹× ¹ÝÇ°ÀÌ ºÒ°¡´ÉÇÑ °æ¿ì |
±¸¸ÅÈ®Á¤ ÀÌÈÄ(¿ÀǸ¶ÄÏ»óÇ°¿¡ ÇÑÇÔ)
°í°´´ÔÀÇ Ã¥ÀÓ ÀÖ´Â »çÀ¯·Î »óÇ° µîÀÌ ¸ê½Ç ¶Ç´Â ÈÑ¼ÕµÈ °æ¿ì
(´Ü, »óÇ°ÀÇ ³»¿ëÀ» È®ÀÎÇϱâ À§ÇÏ¿© Æ÷Àå µîÀ» ÈѼÕÇÑ °æ¿ì´Â Á¦¿Ü)
½Ã°£ÀÌ Áö³²¿¡ µû¶ó ÀçÆǸŰ¡ °ï¶õÇÒ Á¤µµ·Î ¹°Ç°ÀÇ °¡Ä¡°¡ ¶³¾îÁø °æ¿ì
Æ÷Àå °³ºÀµÇ¾î »óÇ° °¡Ä¡°¡ ÈÑ¼ÕµÈ °æ¿ì |
|
´Ù¹è¼ÛÁöÀÇ °æ¿ì ¹ÝÇ° ȯºÒ |
´Ù¹è¼ÛÁöÀÇ °æ¿ì ´Ù¸¥ Áö¿ªÀÇ ¹ÝÇ°À» µ¿½Ã¿¡ ÁøÇàÇÒ ¼ö ¾ø½À´Ï´Ù.
1°³ Áö¿ªÀÇ ¹ÝÇ°ÀÌ ¿Ï·áµÈ ÈÄ ´Ù¸¥ Áö¿ª ¹ÝÇ°À» ÁøÇàÇÒ ¼ö ÀÖÀ¸¹Ç·Î, ÀÌÁ¡ ¾çÇØÇØ Áֽñ⠹ٶø´Ï´Ù. |
|
Áß°í»óÇ°ÀÇ ±³È¯ |
Áß°í»óÇ°Àº Á¦ÇÑµÈ Àç°í ³»¿¡¼ ÆǸŰ¡ ÀÌ·ç¾îÁö¹Ç·Î, ±³È¯Àº ºÒ°¡´ÉÇÕ´Ï´Ù. |
|
¿ÀǸ¶ÄÏ »óÇ°ÀÇ È¯ºÒ |
¿ÀǸ¶ÄÏ»óÇ°¿¡ ´ëÇÑ Ã¥ÀÓÀº ¿øÄ¢ÀûÀ¸·Î ¾÷ü¿¡°Ô ÀÖÀ¸¹Ç·Î, ±³È¯/¹ÝÇ° Á¢¼ö½Ã ¹Ýµå½Ã ÆǸÅÀÚ¿Í ÇùÀÇ ÈÄ ¹ÝÇ° Á¢¼ö¸¦ ÇϼžßÇϸç, ¹ÝÇ°Á¢¼ö ¾øÀÌ ¹Ý¼ÛÇϰųª, ¿ìÆíÀ¸·Î º¸³¾ °æ¿ì »óÇ° È®ÀÎÀÌ ¾î·Á¿ö ȯºÒÀÌ ºÒ°¡´ÉÇÒ ¼ö ÀÖÀ¸´Ï À¯ÀÇÇϽñ⠹ٶø´Ï´Ù. |
|
|
|
¹è¼Û¿¹Á¤ÀÏ ¾È³» |
ÀÎÅÍÆÄÅ© µµ¼´Â ¸ðµç »óÇ°¿¡ ´ëÇØ ¹è¼Û¿Ï·á¿¹Á¤ÀÏÀ» À¥»çÀÌÆ®¿¡ Ç¥½ÃÇÏ°í ÀÖ½À´Ï´Ù.
|
<ÀÎÅÍÆÄÅ© Á÷¹è¼Û »óÇ°> |
»óÇ°Àº ¿ù~Åä¿äÀÏ ¿ÀÀü 10½Ã ÀÌÀü ÁÖ¹®ºÐ¿¡ ´ëÇÏ¿© ´çÀÏ Ãâ°í/´çÀÏ ¹è¼Û¿Ï·á¸¦ º¸ÀåÇÏ´Â »óÇ°ÀÔ´Ï´Ù. |
»óÇ°Àº ¼¿ïÁö¿ª/ÆòÀÏ ÁÖ¹®ºÐÀº ´çÀÏ Ãâ°í/ÀÍÀÏ ¹è¼Û¿Ï·á¸¦ º¸ÀåÇϸç,
¼¿ï¿ÜÁö¿ª/ÆòÀÏ ÁÖ¹®ºÐÀÇ °æ¿ì´Â ¿ÀÈÄ 6½Ã±îÁö ÁÖ¹®ºÐ¿¡ ´ëÇÏ¿© ÀÍÀÏ ¹è¼Û¿Ï·á¸¦ º¸ÀåÇÏ´Â »óÇ°ÀÔ´Ï´Ù.
(´Ü, ¿ù¿äÀÏÀº 12½Ã±îÁö ÁÖ¹®¿¡ ÇÑÇÔ)
|
»óÇ°Àº, ÀÔ°í¿¹Á¤ÀÏ(Á¦Ç°Ãâ½ÃÀÏ)+Åùè»ç¹è¼ÛÀÏ(1ÀÏ)¿¡ ¹è¼Û¿Ï·á¸¦ º¸ÀåÇÕ´Ï´Ù. |
~
»óÇ°Àº À¯ÅëƯ¼º»ó ÀÎÅÍÆÄÅ©¿¡¼ Àç°í¸¦ º¸À¯ÇÏÁö ¾ÊÀº »óÇ°À¸·Î ÁÖ¹®ÀÏ+±âÁØÃâ°íÀÏ+Åùè»ç¹è¼ÛÀÏ(1ÀÏ)¿¡ ¹è¼Û¿Ï·á¸¦ º¸ÀåÇÕ´Ï´Ù.(Åä/°øÈÞÀÏÀº ¹è¼Û±â°£¿¡ Æ÷ÇÔµÇÁö ¾Ê½À´Ï´Ù.)
¡Ø±âÁØÃâ°íÀÏ:ÀÎÅÍÆÄÅ©°¡ »óÇ°À» ¼ö±ÞÇÏ¿© ¹°·ùâ°í¿¡¼ Æ÷Àå/Ãâ°íÇϱâ±îÁö ¼Ò¿äµÇ´Â ½Ã°£
|
|
<¾÷ü Á÷Á¢¹è¼Û/¿ÀǸ¶ÄÏ »óÇ°> |
~
»óÇ°Àº ¾÷ü°¡ ÁÖ¹®À» È®ÀÎÇÏ°í, Ãâ°íÇϱâ±îÁö °É¸®´Â ½Ã°£ÀÔ´Ï´Ù. ÁÖ¹®ÀÏ+±âÁØÃâ°íÀÏ+Åùè»ç¹è¼ÛÀÏ(2ÀÏ)¿¡ ¹è¼Û¿Ï·á¸¦ º¸ÀåÇÕ´Ï´Ù.(Åä/°øÈÞÀÏÀº ¹è¼Û±â°£¿¡ Æ÷ÇÔµÇÁö ¾Ê½À´Ï´Ù.)
¡Ø5ÀÏÀ̳» Ãâ°í°¡ ½ÃÀÛµÇÁö ¾ÊÀ»½Ã, ¿ÀǸ¶ÄÏ »óÇ°Àº ÀÚµ¿À¸·Î ÁÖ¹®ÀÌ Ãë¼ÒµÇ¸ç, °í°´´Ô²² Ç°Àýº¸»ó±ÝÀ» Áö±ÞÇØ µå¸³´Ï´Ù.
|
|
|
¹è¼Ûºñ ¾È³» |
µµ¼(Áß°íµµ¼ Æ÷ÇÔ)¸¸ ±¸¸ÅÇϽøé : ¹è¼Ûºñ 2,000¿ø (1¸¸¿øÀÌ»ó ±¸¸Å ½Ã ¹«·á¹è¼Û) À½¹Ý/DVD¸¸ ±¸¸ÅÇϽøé : ¹è¼Ûºñ 1,500¿ø (2¸¸¿øÀÌ»ó ±¸¸Å ½Ã ¹«·á¹è¼Û)
ÀâÁö/¸¸È/±âÇÁÆ®¸¸ ±¸¸ÅÇϽøé : ¹è¼Ûºñ 2,000¿ø (2¸¸¿øÀÌ»ó ±¸¸Å ½Ã ¹«·á¹è¼Û)
µµ¼¿Í À½¹Ý/DVD¸¦ ÇÔ²² ±¸¸ÅÇϽøé : ¹è¼Ûºñ 1,500¿ø 1¸¸¿øÀÌ»ó ±¸¸Å ½Ã ¹«·á¹è¼Û)
µµ¼¿Í ÀâÁö/¸¸È/±âÇÁÆ®/Áß°íÁ÷¹è¼Û»óÇ°À» ÇÔ²² ±¸¸ÅÇϽøé : 2,000¿ø (1¸¸¿øÀÌ»ó ±¸¸Å ½Ã ¹«·á¹è¼Û)
¾÷üÁ÷Á¢¹è¼Û»óÇ°À» ±¸¸Å½Ã : ¾÷üº°·Î »óÀÌÇÑ ¹è¼Ûºñ Àû¿ë
* ¼¼Æ®»óÇ°ÀÇ °æ¿ì ºÎºÐÃë¼Ò ½Ã Ãß°¡ ¹è¼Ûºñ°¡ ºÎ°úµÉ ¼ö ÀÖ½À´Ï´Ù.
* ºÏÄ«Æ®¿¡¼ ¹è¼Ûºñ¾ø¾Ö±â ¹öÆ°À» Ŭ¸¯Çϼż, µ¿ÀϾ÷ü»óÇ°À» Á¶±Ý ´õ ±¸¸ÅÇϽøé, ¹è¼Ûºñ¸¦ Àý¾àÇÏ½Ç ¼ö ÀÖ½À´Ï´Ù.
|
|
Çؿܹè¼Û ¾È³» |
ÀÎÅÍÆÄÅ©µµ¼¿¡¼´Â ±¹³»¿¡¼ ÁÖ¹®ÇϽðųª ÇØ¿Ü¿¡¼ ÁÖ¹®ÇÏ¿© ÇØ¿Ü·Î ¹è¼ÛÀ» ¿øÇÏ½Ç °æ¿ì DHL°ú Ư¾àÀ¸·Î Ã¥Á¤µÈ ¿ä±ÝÇ¥¿¡
ÀÇÇØ °³ÀÎÀÌ ÀÌ¿ëÇÏ´Â °æ¿ìº¸´Ù ¹è¼Û¿ä±ÝÀ» Å©°Ô ³·Ã߸ç DHL(www.dhl.co.kr)·Î Çؿܹè¼Û ¼ºñ½º¸¦ Á¦°øÇÕ´Ï´Ù.
Çؿܹè¼ÛÀº µµ¼/CD/DVD »óÇ°¿¡ ÇÑÇØ ¼ºñ½ºÇÏ°í ÀÖÀ¸¸ç, ´Ù¸¥ »óÇ°À» ºÏÄ«Æ®¿¡ ÇÔ²² ´ãÀ¸½Ç °æ¿ì Çؿܹè¼ÛÀÌ ºÒ°¡ÇÕ´Ï´Ù.
ÇØ¿ÜÁÖ¹®¹è¼Û ¼ºñ½º´Â ÀÎÅÍÆÄÅ© µµ¼ ȸ¿ø °¡ÀÔÀ» Çϼž߸¸ ½Åû °¡´ÉÇÕ´Ï´Ù. |
|
¾Ë¾ÆµÎ¼¼¿ä!!! |
µµ¸Å»ó ¹× Á¦ÀÛ»ç »çÁ¤¿¡ µû¶ó Ç°Àý/ÀýÆÇ µîÀÇ »çÀ¯·Î Ãë¼ÒµÉ ¼ö ÀÖ½À´Ï´Ù.
¿ÀǸ¶ÄϾ÷üÀÇ ¹è¼ÛÁö¿¬½Ã ÁÖ¹®ÀÌ ÀÚµ¿À¸·Î Ãë¼ÒµÉ ¼ö ÀÖ½À´Ï´Ù.
Ãâ°í°¡´É ½Ã°£ÀÌ ¼·Î ´Ù¸¥ »óÇ°À» ÇÔ²² ÁÖ¹®ÇÒ °æ¿ì Ãâ°í°¡´É ½Ã°£ÀÌ °¡Àå ±ä ±âÁØÀ¸·Î ¹è¼ÛµË´Ï´Ù.
À¯ÅëÀÇ Æ¯¼º»ó Ãâ°í±â°£Àº ¿¹Á¤º¸´Ù ¾Õ´ç°ÜÁö°Å³ª ´ÊÃçÁú ¼ö ÀÖ½À´Ï´Ù.
Åùè»ç ¹è¼ÛÀÏÀÎ ¼¿ï ¹× ¼öµµ±ÇÀº 1~2ÀÏ, Áö¹æÀº 2~3ÀÏ, µµ¼, »ê°£, ±ººÎ´ë´Â 3ÀÏ ÀÌ»óÀÇ ½Ã°£ÀÌ ¼Ò¿äµË´Ï´Ù. |
|
|
|
|