Utilisateur:Hugo M ULille/Brouillon
L’utilisation d'algorithmes spécifiques permet de réduire la consommation énergétique des processeurs. Dans un contexte temps réel ces économies d'énergie doivent laisser intacte la certitude de respecter la date limite associée à chaque tâche.
Ces algorithmes postulent des propriétés quant aux architectures matérielles sur lesquelles ils peuvent s'appliquer pour modifier la fréquence ou l'état du processeur afin de rendre son fonctionnement plus économe. Ils peuvent également s'appliquer sur un type de tâche particulier (périodiques, apériodiques). Il sont conçus pour s’appliquer hors-ligne (avant exécution), en-ligne (pendant l’exécution) ou combiner les deux.
Objectifs et notions préalables
[modifier | modifier le code]Dans les systèmes temps réel les algorithmes d'ordonnancement qui visent à réduire la consommation énergétique doivent impérativement assurer le respect des contraintes temporelles définies pour les tâches sur lesquelles ils s'appliquent.
Les économies d'énergie réalisées permettent des économies financières et environnementales, dans le cas particulier des matériels fonctionnant sur batterie ils produisent un allongement de l'autonomie.
Afin de limiter la consommation énergétique, les algorithmes qui se fixent ce but se fondent sur des modèles énergétiques et cherchent à en minimiser des paramètres pour un ordonnancement des tâches donné propre au contexte temps réel dont les exemples les plus courant sont Earliest deadline first scheduling (noté EDF) et Fixed-priority pre-emptive scheduling (en) (noté FP).
Techniques de réduction de la consommation d'énergie
[modifier | modifier le code]Deux approches distinctes sont largement utilisées pour réduire la consommation d'énergie, l'ajustement dynamique de la tension et de la fréquence, en anglais DVFS pour Dynamic Voltage and Frequency Scaling, et la gestion dynamique de l'alimentation, en anglais DPM pour Dynamic Power Management. Ces techniques influent respectivement sur les aspects dynamiques (dus à l'activité du système) et statiques (dus au courant de fuite) de la consommation énergétique. Il est possible de combiner DVFS et DPM pour améliorer plus encore les gains énergétiques.
DVFS
[modifier | modifier le code]La technique DVFS est la combinaison de deux méthodes distinctes : l'ajustement dynamique de la tension et l'ajustement dynamique de la fréquence . L'évolution de la fréquence et de la tension se fait proportionnellement, une fréquence plus faible permettra une tension plus faible et aura pour conséquence une consommation électrique réduite du processeur[1].
On peut remarquer que les gains énergétiques permis par DVFS ne sont pas proportionnels à la perte de performance. A titre d'exemple pour des programmes dont la consommation repose principalement sur l'utilisation du processeur (par opposition à la mémoire), il a été montré pour des programmes donnés que des économies d'énergie situées entre 15 et 60% de la consommation initiale permettaient des performances seulement 5 à 20% plus faibles que les performances initiales[2].
Toutefois sur les processeurs modernes, le gain par DVFS seul est plus limité que ne le prévoient les modèles théoriques[3]. Ces derniers cherchent à minimiser le temps de repos du processeur or ce dernier est très peu coûteux sur les architectures modernes. Il est ainsi parfois préférable de consommer plus d'énergie pour terminer une tâche plus rapidement et faire entrer le processeur en état de repos[4].
DPM
[modifier | modifier le code]La gestion dynamique de l'alimentation vise à réduire à réduire la consommation électrique en coupant l'alimentation de certains composants non nécessaires à l'exécution de la tâche en cours ou en arrêtant l'horloge du processeur[5]. L'absence d'alimentation de certains composants produit une économie d'énergie immédiate, toutefois le fait de faire passer un composant d'un état éteint à un état allumé produit un surcout dans la consommation d'énergie. Pour produire un réel gain énergétique il est donc nécessaire de déterminer et de respecter un seuil de rentabilité qui assure que l'économie faite par le temps passé hors-tension sera supérieure ou égale au coût de la remise en tension[6].
Algorithmes DVFS
[modifier | modifier le code]Une manière de catégoriser les algorithmes DVFS peut être en fonction de la manière dont ils maximisent l'activité du processeur. Concernant le temps d’exécution des tâches, certains considèrent le pire des cas et s'appliquent ainsi avant l'execution (algorithmes hors-ligne, en anglais static slack reclaiming), d'autres s'appliquent durant l’exécution (algorithmes en-ligne) et tentent d'exploiter l'inactivité du processeur due à l'écart entre le pire des cas et le temps d’exécution effectif, enfin certains algorithmes combinent les deux approches. Par ailleurs les algorithmes d'ordonnancement prennent plus ou moins en compte les contraintes physiques et architecturales des processeurs, ce qui impacte leur complexité.
Hors-ligne
[modifier | modifier le code]Considérant des tâches apériodiques, des changement de vitesse/tension du processeur continus et aucun surcoût énergétique relatif à ces changements ni au passage du processeur de l'état inactif à actif, il existe un algorithme hors-ligne optimal en sous un ordonnancement des tâches via EDF. L'algorithme se fonde sur la détermination d'un intervalle critique où un ensemble de tâches doit être exécuté à vitesse maximale et constante pour tout ordonnancement optimal puis construit un sous problème pour les taches restantes et le résout récursivement [7]. Il est prouvé que pour un système sans surcoût et des tâches consommant la même quantité d'énergie, la quantité d'énergie consommée est minimisée lorsque les tâches se terminent à leur date limite et donc en faisant tendre le temps d'inactivité du processeur vers zéro[8] ainsi que pour un système continu toute tâche peut être exécutée à une vitesse constante qui lui est propre sans que cela affecte l'optimisation énergétique[9].
Considérant le réglage de la fréquence comme continu et ne prenant pas en compte le surcoût dû au changement de vitesse mais tenant compte du courant de fuite et distinguant le coût énergétique dynamique dépendant de la fréquence du processeur et le coût qui en est indépendant revenant à la mémoire et aux composants périphériques, il existe un algorithme pour des tâches périodiques ordonnancées via EDF en [10]. L'algorithme vise à trouver la vitesse optimale pour chaque tâche qui garantit le respect de la date limite sans que cette vitesse soit nécessairement la plus lente possible pour satisfaire cet impératif[11].
S'appuyant sur ce contexte théorique de réglage continu de la fréquence qui n'est pas en accord avec la réalité des processeurs modernes qui ne permettent qu'un réglage discret, se fonde la preuve que pour les systèmes déterminés par ensemble discret de couples vitesse/tension, pour chaque tâche la consommation d'énergie est minimisée en utilisant les deux couples adjacents à la vitesse qui serait optimale pour un système continu [12].
Dans un tel système constitué d'un ensemble discret de fréquences possibles pour le processeur et considérant les surcoûts énergétiques de passage d'un état ou d'une fréquence à un autre il est possible de calculer la fréquence optimale pour chaque tâche par un algorithme indifférent à l'algorithme d'ordonnancement des tâches utilisé en [13]. La méthode utilisée consiste à déterminer la fréquence optimale dans un modèle de paramétrage continu de la fréquence du processeur puis, reprenant la preuve mentionnée précédemment, de déterminer le temps à passer dans chacun des modes du processeur adjacent à cette fréquence[14].
Il est prouvé que sous un ordonnancement via FP le problème d'optimisation énergétique est NP-Difficile[15]. Il existe un algorithme d'approximation en temps polynomial qui pour chaque assure une consommation d'énergie d'au plus la consommation optimale par un facteur de et dont le temps d'exécution est déterminé par le nombre de tâches et un facteur de [16].
En ligne
[modifier | modifier le code]L'ensemble des algorithmes qui suivent se fondent sur un ordonnancement via EDF.
Dans un contexte considérant un ensemble discret de fréquences, une consommation énergétique du processeur négligeable dans ses états inactifs et aucun surcoût du au changement d'état, un algorithme (OLDVS) en permet d'accumuler le temps disponible dû à l'écart entre l'achèvement effectif d'une tâche et le pire des cas sur lequel se fonde l'ordonnancement pour réduire ensuite la vitesse du processeur via l'application d'un facteur visant à réaliser les tâches suivantes dans un temps proche du pire des cas[17]. Les simulations utilisant cette approche indiquent un gain relatif à la proportion de tâches apériodiques et inversement proportionnel à l'utilisation nécessaire du processeur pour satisfaire les limites fixées. Un gain énergétique de 40% par rapport à un système sans gestion de la fréquence/tension dans un contexte où 70% des tâches sont apériodiques a pu être montré tandis que le cas optimal est inférieur à 50%[18].
Cette approche a été reprise pour produire un algorithme (OLDVS*) en qui divise l'exécution des tâches en deux parties, une première exécutée à une fréquence plus faible et, dans le cas où la tâche n'est pas terminée, une seconde à fréquence plus élevée qui assure le respect de la limite[19]. Il a été montré que cette technique permet des gains jusqu'à 20% supérieurs à ceux de l'algorithme d'origine sur une architecture et un contexte donné[20].
La prise en compte du coût énergétique dû au passage d'un niveau de fréquence à un autre a été intégrée pour chacun de ces algorithmes. Des implémentations sur des architectures particulières constatent des gains énergétiques de l'ordre de ceux annoncés[21].
En ligne et hors-ligne
[modifier | modifier le code]Dans un contexte considérant un réglage discret et sans surcoût énergétique de la fréquence et des tâches périodiques, un algorithme (DRA-OTE) en produit une file dont les éléments sont les dates limites et le temps d’exécution restant des tâches. A chaque évènement d'ordonnancement, les temps d’exécution restants sont diminués du temps passé depuis le dernier évènement. Lorsqu'une nouvelle tâche arrive, son temps d'exécution restant est additionné avec ceux inférieurs à lui présent dans la file et la vitesse est réglée en accord avec la valeur obtenue[22].
Dans un contexte similaire, un autre algorithme (AGR) en repose sur l'idée que si la prochaine arrivée de tâche est postérieure aux dates limites des tâches en cours, il est possible d'attribuer du temps processeur aux tâches moins prioritaires proportionnellement à un facteur d'agressivité tout en satisfaisant les dates limites[23]. La contrepartie est que pour respecter leur date limite il peut arriver dans certains cas que la vitesse doive être fortement augmentée pour respecter les dates limites [24]. Pour limiter cet impact il est possible d'intégrer à l'algorithme (AGR2) des données relatives à la charge de travail moyenne[25].
Algorithmes DPM
[modifier | modifier le code]Les algorithmes DPM ont connu un essor important pour plusieurs raisons. La possibilité de réglage plus fine des fréquences de processeurs limite l'impact des techniques DVFS. L'existence de multiple états économie d'énergie au propriétés diverses sur les processeurs modernes offre à ces techniques une flexibilité dont ils disposaient pas par le passé. Le plus grand impact du courant de fuite dans la consommation énergétique à mesure que les architectures se miniaturisent [26].
Les algorithmes DPM permettent par ailleurs d'éviter certains désagréments que rencontrent les algorithmes DVFS tels que la dégradation de la fiabilité due à l'abaissement de la fréquence [27] ou la possible augmentation du temps de travail du au coût des préemptions de l’ordonnanceur ce qui produit un surcoût énergétique [28].
Hors ligne
[modifier | modifier le code]Considérant les coûts d'attente et d'inactivité du processeur, et supposant un coût de transition négligeable, une première approche consiste à distinguer des durées de phase d'activité, exécutées à la vitesse maximale, et d'inactivité[29].
Cette stratégie résulte en des périodes d'inactivités plus courtes et fréquentes que dans les approches procrastinatrices. Cet aspect amoindrissant les gains énergétiques peut être limité par des techniques permettant de regrouper les périodes d'inactivités. Le concept de période d'harmonisation qui consiste à n'informer l’ordonnanceur de l'arrivée de certaines tâches qu'à des intervalles réguliers retardant ainsi leur exécution est une première méthode[30]. Il est également possible d'inclure une tâche périodique qui a pour fonction de mettre le processeur en état d'inactivité et dont la durée varie en fonction du temps processeur disponible[31]. Cette seconde méthode a pour avantage sur la première de pouvoir s'étendre sur la période suivante.
En-ligne
[modifier | modifier le code]Pour des tâches périodiques, et selon un ordonnancement EDF, une stratégie en consiste à calculer pour chaque tâche arrivante de combien de temps son exécution peut être reportée sans manquer sa date limite. Chaque fois que le processeur est dans un état d'inactivité, l'algorithme détermine le maximum de temps de report d'exécution de la tâche avec la date limite la plus proche et se met dans un état d'économie d'énergie. Si une nouvelle tâche arrive avec une date limite inférieure à cette tâche, la procédure est à nouveau exécutée en prenant en compte le temps écoulé[32].
Une stratégie inverse en temps pseudo-polynomial a été mise en place pour des tâche apériodiques. Elle consiste à accumuler les temps d'inactivité statiques et dynamiques et de faire passer le processeur dans l'état d’économie d'énergie produisant la rentabilité en fonction du coût de transition et du temps disponible. Si aucun seuil de rentabilité ne peut être atteint, le processeur exécute la charge de travail disponible à la vitesse maximale[33].
Algorithmes DVFS et DPM
[modifier | modifier le code]Hors ligne
[modifier | modifier le code]Une approche (CS-DVS) pour des tâches périodiques sous EDF[34] ou FP[35] reposant sur la vitesse critique (seuil à partir duquel l'abaissement de la fréquence ne produit plus de gain énergétique) et la procrastination pour l’exécution des tâches, consiste à déterminer la fréquence adaptée pour chaque tâche hors-ligne, puis à déterminer en ligne, en temps constant pour chaque tâche le délai avant exécution de la tâche et le mode d’économie d'énergie offrant le meilleur gain.
Il a été montré que la partie DPM du premier algorithme sous FP adoptant cette approche pouvait mener dans certains cas à rater des dates limites [36]. Cet écueil est évité en simulant lorsque le processeur n'a plus de tâches à exécuter, l’exécution des tâches arrivant avant la première date limite[37]. Cette étape transforme la complexité du calcul du délai de la tâche en [38].
Une augmentation systématique du temps passé en état de sommeil pour le processeur effectuée en ligne en temps constant peut être effectuée en calculant hors-ligne le plus petit délai acceptable parmi les tâches. Lors de l'arrivée d'une nouvelle tâche alors qu'il est en état de sommeil le processeur peut ainsi y rester pour ce temps sans risquer d'impacter la réalisation de la tâche avant la date limite[39].
En-ligne
[modifier | modifier le code]L'algorithme hors-ligne CS-DVS a été étendu par ses auteurs pour incorporer une dimensions en-ligne à son aspect DVFS. La stratégie consiste à collecter les différences entre l'achèvement effectif des tâches et le pire des cas initialement considéré. Il peut alors être possible d'abaisser la fréquence des tâches suivantes et lorsque la vitesse critique est atteinte, d'étendre la période de sommeil du processeur. Pour éviter de rater les dates limites, les tâches peuvent seulement utiliser le temps d'inactivité produit par des tâches avec des priorités supérieures où égales[40].
Dans un contexte de taches périodiques sous EDF, l'algorithme DVSLK prend en compte dans son modèle énergétique l'aspect statique (en plus de l'aspect dynamique) pour déterminer en temps pseudo-polynomial la fréquence la plus économe en énergie. Dans le cas de l'inactivité, il procède par procrastination[41].
Une version FP de cet algorithme (FPLK) a été produite avec une complexité en seulement qui consiste à calculer hors-ligne un délai pour chaque tâche qui assure le respect de sa date limite et à augmenter le sommeil du processeur de ce temps à l'arrivée de la tâche[42].
Références
[modifier | modifier le code]- Weisner 1994, p. 9
- Kihwan 2005, p. 10
- Snowdon 2005, p. 4
- Saha 2012, p. 11
- Benini 2012, p. 17
- Devadas 2012, p. 3
- Yao 1995, p. 3
- Ishihara 1998, p. 2
- Aydin 2001, p. 3
- Aydin 2006, p. 2
- Aydin 2006, p. 7
- Ishihara 1998, p. 4
- Bini 2009, p. 19
- Bini 2009, p. 8
- Yun 2003, p. 16
- Yun 2003, p. 29
- Lee 2004, p. 6
- Lee 2004, p. 8
- Gong 2007, p. 2
- Gong 2007, p. 7
- Bambagini 2011, p. 5
- Aydin 2004, p. 5
- Aydin 2004, p. 8
- Aydin 2004, p. 9
- Aydin 2004, p. 9
- Kim 2003, p. 1
- Zhang 2003, p. 4
- Kim 2004, p. 3
- Huang 2009, p. 5
- Rowe 2010, p. 2
- Rowe 2010, p. 4
- Lee 2003, p. 3
- Awan 2011, p. 4
- Jejurikar 2004, p. 4
- Jejurikar 2004, p. 4
- Chen 2006, p. 7
- Chen 2006, p. 4
- Chen 2006, p. 4
- Bambagini 2013, p. 6
- Jejurikar 2005, p. 2
- Niu 2004, p. 4
- Quan 2004, p. 7
Bibliographie
[modifier | modifier le code](en) Weiser, M., Welch, B., Demers, A., & Shenker, S., « Scheduling for Reduced CPU Energy », Mobile Computing. The Kluwer International Series in Engineering and Computer Science, Springer, Boston, MA, vol. 353, , p. 449-471 (DOI 10.1007/978-0-585-29603-6_17)
(en) F. Yao, A. Demers et S. Shenker « A scheduling model for reduced CPU energy » () (DOI 10.1109/SFCS.1995.492493, lire en ligne, consulté le )
—IEEE 36th Annual Foundations of Computer Science
— « (ibid.) », dans Proceedings of IEEE 36th Annual Foundations of Computer Science, Milwaukee, WI, USA, IEEE Comput. Soc. Press (ISBN 978-0-8186-7183-8), p. 374–382
(en) Tohru Ishihara et Hiroto Yasuura « Voltage scheduling problem for dynamically variable voltage processors » () (DOI 10.1145/280756.280894, lire en ligne, consulté le )
—the 1998 international symposium
— « (ibid.) », dans Proceedings of the 1998 international symposium on Low power electronics and design - ISLPED '98, Monterey, California, United States, ACM Press (ISBN 978-1-58113-059-1), p. 197–202
(en) Padmanabhan Pillai et Kang G. Shin « Real-time dynamic voltage scaling for low-power embedded operating systems » () (DOI 10.1145/502034.502044, lire en ligne, consulté le )
—SOSP01: 18th Symposium on Operating System Principles
— « (ibid.) », dans Proceedings of the eighteenth ACM symposium on Operating systems principles, Banff Alberta Canada, ACM (ISBN 978-1-58113-389-9), p. 89–102
(en) H. Aydin, R. Melhem, D. Mosse et P. Mejia-Alvarez « Dynamic and aggressive scheduling techniques for power-aware real-time systems » () (DOI 10.1109/REAL.2001.990600, lire en ligne, consulté le )
—22nd IEEE Real-Time Systems Symposium (RTSS 2001)
— « (ibid.) », dans Proceedings 22nd IEEE Real-Time Systems Symposium (RTSS 2001) (Cat. No.01PR1420), London, UK, IEEE Comput. Soc (ISBN 978-0-7695-1420-8), p. 95–105
(en) Yann-Hang Lee, K.P. Reddy et C.M. Krishna « Scheduling techniques for reducing leakage power in hard real-time systems » () (DOI 10.1109/EMRTS.2003.1212733, lire en ligne, consulté le )
—15th Euromicro Conference on Real-Time Systems. ECRTS 2003
— « (ibid.) », dans 15th Euromicro Conference on Real-Time Systems, 2003. Proceedings., Porto, Portugal, IEEE Comput. Soc (ISBN 978-0-7695-1936-4), p. 105–112
(en) Han-Saem Yun et Jihong Kim, « On energy-optimal voltage scheduling for fixed-priority hard real-time systems », ACM Transactions on Embedded Computing Systems, vol. 2, no 3, , p. 393–430 (DOI 10.1145/860176.860183, lire en ligne, consulté le )
(en) Nam Sung Kim, T. Austin, D. Blaauw, T. Mudge, K. Flautner, Jie S. Hu, M.J. Irwin, M. Kandemir et V. Narayanan, « Leakage current: Moore's law meets static power », Computer, vol. 36, no 12, , p. 68–75 (ISSN 0018-9162, DOI 10.1109/MC.2003.1250885, lire en ligne, consulté le )
(en) Ying Zhang et K. Chakrabarty « Energy-aware adaptive checkpointing in embedded real-time systems » () (DOI 10.1109/DATE.2003.1253723, lire en ligne, consulté le )
—6th Design Automation and Test in Europe (DATE 03)
— « (ibid.) », dans 2003 Design, Automation and Test in Europe Conference and Exhibition, Munich, Germany, IEEE Comput. Soc (ISBN 978-0-7695-1870-1), p. 918–923
(en) Cheol-Hoon Lee et K.G. Shin « On-Line Dynamic Voltage Scaling for Hard Real-Time Systems Using the EDF Algorithm » () (DOI 10.1109/REAL.2004.38, lire en ligne, consulté le )
—25th IEEE International Real-Time Systems Symposium
— « (ibid.) », dans 25th IEEE International Real-Time Systems Symposium, Lisbon, Portugal, IEEE (ISBN 978-0-7695-2247-0), p. 319–327
(en) Ravindra Jejurikar, Cristiano Pereira et Rajesh Gupta « Leakage aware dynamic voltage scaling for real-time embedded systems » () (DOI 10.1145/996566.996650, lire en ligne, consulté le )
—the 41st annual conference
— « (ibid.) », dans Proceedings of the 41st annual conference on Design automation - DAC '04, San Diego, CA, USA, ACM Press (ISBN 978-1-58113-828-3), p. 275
(en) Ravindra Jejurikar et Rajesh Gupta « Procrastination scheduling in fixed priority real-time systems » () (DOI 10.1145/997163.997173, lire en ligne, consulté le )
—the 2004 ACM SIGPLAN/SIGBED conference
— « (ibid.) », dans Proceedings of the 2004 ACM SIGPLAN/SIGBED conference on Languages, compilers, and tools - LCTES '04, Washington, DC, USA, ACM Press (ISBN 978-1-58113-806-1), p. 57
(en) Woonseok Kim, Jihong Kim et Sang Lyul Min « Preemption-aware dynamic voltage scaling in hard real-time systems » () (DOI 10.1109/LPE.2004.241299, lire en ligne)
—IEEE 2004 International Symposium on Low Power Electronics and Design
— « (ibid.) », dans Proceedings of the 2004 International Symposium on Low Power Electronics and Design, IEEE, p. 393-398
(en) H. Aydin, R. Melhem, D. Mosse et P. Mejia-Alvarez, « Power-aware scheduling for periodic real-time tasks », IEEE Transactions on Computers, vol. 53, no 5, , p. 584–600 (ISSN 0018-9340, DOI 10.1109/TC.2004.1275298, lire en ligne, consulté le )
Linwei Niu et Gang Quan « Reducing both dynamic and leakage energy consumption for hard real-time systems » () (DOI 10.1145/1023833.1023854, lire en ligne, consulté le )
—the 2004 international conference
— « (ibid.) », dans Proceedings of the 2004 international conference on Compilers, architecture, and synthesis for embedded systems - CASES '04, Washington DC, USA, ACM Press (ISBN 978-1-58113-890-0), p. 140
Gang Quan, Linwei Niu, Xiaobo Sharon Hu et B. Mochocki « Fixed Priority Scheduling for Reducing Overall Energy on Variable Voltage Processors » () (DOI 10.1109/REAL.2004.23, lire en ligne, consulté le )
—25th IEEE International Real-Time Systems Symposium
— « (ibid.) », dans 25th IEEE International Real-Time Systems Symposium, Lisbon, Portugal, IEEE (ISBN 978-0-7695-2247-0), p. 309–318
(en) Ravindra Jejurikar et Rajesh Gupta « Dynamic slack reclamation with procrastination scheduling in real-time embedded systems » () (DOI 10.1145/1065579.1065612, lire en ligne, consulté le )
—the 42nd annual conference
— « (ibid.) », dans Proceedings of the 42nd annual conference on Design automation - DAC '05, San Diego, California, USA, ACM Press (ISBN 978-1-59593-058-3), p. 111
(en) Kihwan Choi and Soma, R. and Pedram, M., « Fine-grained dynamic voltage and frequency scaling for precise energy and performance tradeoff based on the ratio of off-chip access to on-chip computation times », EEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, vol. 24, , p. 18-28 (DOI 10.1109/TCAD.2004.839485)
(en) Snowdon, David C and Ruocco, Sergio and Heiser, Gernot, « Power management and dynamic voltage scaling: Myths and facts », Proceedings of the 2005 Workshop on Power Aware Real-time Computing, New Jersey, USA, vol. 31, , p. 34 (lire en ligne)
(en) Hakan Aydin, Vinay Devadas et Dakai Zhu « System-Level Energy Management for Periodic Real-Time Tasks » () (DOI 10.1109/RTSS.2006.48, lire en ligne, consulté le )
—2006 27th IEEE International Real-Time Systems Symposium (RTSS'06)
— « (ibid.) », dans 2006 27th IEEE International Real-Time Systems Symposium (RTSS'06), Rio de Janiero, Brazil, IEEE (ISBN 978-0-7695-2761-1), p. 313–322
(en) Jian-Jia Chen et Tei-Wei Kuo « Procrastination for leakage-aware rate-monotonic scheduling on a dynamic voltage scaling processor » () (DOI 10.1145/1134650.1134673, lire en ligne, consulté le )
—the 2006 ACM SIGPLAN/SIGBED conference
— « (ibid.) », dans Proceedings of the 2006 ACM SIGPLAN/SIGBED conference on Language, compilers and tool support for embedded systems - LCTES '06, Ottawa, Ontario, Canada, ACM Press (ISBN 978-1-59593-362-1), p. 153
(en) Min-Sik Gong, Yeong Rak Seong et Cheol-Hoon Lee « On-Line Dynamic Voltage Scaling on Processor with Discrete Frequency and Voltage Levels » () (DOI 10.1109/ICCIT.2007.191, lire en ligne, consulté le )
—2007 International Conference on Convergence Information Technology (ICCIT 2007)
— « (ibid.) », dans 2007 International Conference on Convergence Information Technology (ICCIT 2007), Gyeongju-si, Gyeongbuk, Korea, IEEE (ISBN 978-0-7695-3038-3), p. 1824–1831
(en) Enrico Bini, Giorgio Buttazzo et Giuseppe Lipari, « Minimizing CPU energy in real-time systems with discrete speed management », ACM Transactions on Embedded Computing Systems, vol. 8, no 4, , p. 1–23 (DOI 10.1145/1550987.1550994, lire en ligne, consulté le )
(en) Kai Huang, Luca Santinelli, Jian-Jia Chen, Lothar Thiele et Giorgio C. Buttazzo « Adaptive Dynamic Power Management for Hard Real-Time Systems » () (DOI 10.1109/RTSS.2009.25, lire en ligne, consulté le )
—2009 IEEE 30th Real-Time Systems Symposium (RTSS)
— « (ibid.) », dans 2009 30th IEEE Real-Time Systems Symposium, Washington DC, USA, IEEE (ISBN 978-0-7695-3875-4), p. 23–32
(en) Anthony Rowe, Karthik Lakshmanan, Haifeng Zhu et Ragunathan Rajkumar, « Rate-Harmonized Scheduling and Its Applicability to Energy Management », IEEE Transactions on Industrial Informatics, vol. 6, no 3, , p. 265–275 (DOI 10.1109/TII.2010.2052106, lire en ligne, consulté le )
(en) Mario Bambagini, Francesco Prosperi, Mauro Marinoni et Giorgio Buttazzo « Energy management for tiny real-time kernels » () (DOI 10.1109/ICEAC.2011.6136687, lire en ligne, consulté le )
—2011 International Conference on Energy Aware Computing (ICEAC)
— « (ibid.) », dans 2011 International Conference on Energy Aware Computing, Istanbul, Turkey, IEEE (ISBN 978-1-4673-0465-8 978-1-4673-0466-5 978-1-4673-0464-1[à vérifier : ISBN invalide]), p. 1–6
(en) Muhammad Ali Awan et Stefan M. Petters « Enhanced Race-To-Halt: A Leakage-Aware Energy Management Approach for Dynamic Priority Systems » () (DOI 10.1109/ECRTS.2011.17, lire en ligne, consulté le )
—2011 23rd Euromicro Conference on Real-Time Systems (ECRTS)
— « (ibid.) », dans 2011 23rd Euromicro Conference on Real-Time Systems, Porto, Portugal, IEEE (ISBN 978-1-4577-0643-1), p. 92–101
(en) Saha, Sonal and Ravindran, Binoy, « An Experimental Evaluation of Real-Time DVFS Scheduling Algorithms », roceedings of the 5th Annual International Systems and Storage Conference (SYSTOR '12). Association for Computing Machinery, New York, NY, USA, , p. 1-12 (DOI 10.1145/2367589.2367604)
(en) Benini, Luca, and Giovanni DeMicheli, « Dynamic power management: design techniques and CAD tools », Springer Science & Business Media, (ISBN 978-0-7923-8086-3, DOI 10.1007/978-1-4615-5455-4)
(en) Vinay Devadas et Hakan Aydin, « On the Interplay of Voltage/Frequency Scaling and Device Power Management for Frame-Based Real-Time Embedded Applications », IEEE Transactions on Computers, vol. 61, no 1, , p. 31–44 (ISSN 0018-9340, DOI 10.1109/TC.2010.248, lire en ligne, consulté le )
(en) Mario Bambagini, Marko Bertogna, Mauro Marinoni et Giorgio Buttazzo « An energy-aware algorithm exploiting limited preemptive scheduling under fixed priorities » () (DOI 10.1109/SIES.2013.6601465, lire en ligne, consulté le )
—2013 8th IEEE International Symposium on Industrial Embedded Systems (SIES)
— « (ibid.) », dans 2013 8th IEEE International Symposium on Industrial Embedded Systems (SIES), Porto, IEEE (ISBN 978-1-4799-0658-1), p. 3–12