VI. Problemlösung in verschiedenen Bereichen mit verstärkendem Lernen
Across Domains
Verstärkendes Lernen "Across Domains"
Wir haben bereits besprochen, dass ein Roboter Aufgaben durch den Reinforcement-Learning-Ansatz erlernen kann. Ein Roboter lernt durch Versuch und Irrtum: Er erhält positive Belohnungen, wenn er Aufgaben erfolgreich ausführt – wie z. B. das Balancieren auf zwei Beinen oder das Zusammenbauen eines Produkts – und Strafen für Fehler, wie etwa Umkippen oder das Fallenlassen eines Objekts. Mit der Zeit verfeinert der Roboter sein Verhalten und wird effizienter, anpassungsfähiger und in der Lage, auch komplexe Aufgaben autonom zu bewältigen.
Verstärkende Lernmodelle werden auch eingesetzt, um Fachleute aus verschiedenen Bereichen bei der Ausführung verschiedener Aufgaben zu unterstützen. Wählen Sie im Folgenden einen der Bereiche aus, der Ihrem Fachgebiet am nächsten kommt, und erkunden Sie verschiedene Aufgaben, die durch verstärkende Lernmodelle unterstützt werden können:
Medizin
LITERATURHINWEISE
- Yala, Adam, Peter G. Mikhael, Constance Lehman, Gigin Lin, Fredrik Strand, Yung-Liang Wan, Kevin Hughes, et al. “Optimizing Risk-Based Breast Cancer Screening Policies with Reinforcement Learning.” Nature Medicine 28, no. 1 (January 2022): 136–43. https://doi.org/10.1038/s41591-021-01599-w.
- Barata, Catarina, Veronica Rotemberg, Noel C. F. Codella, Philipp Tschandl, Christoph Rinner, Bengu Nisa Akay, Zoe Apalla, et al. “A Reinforcement Learning Model for AI-Based Decision Support in Skin Cancer.” Nature Medicine 29, no. 8 (August 2023): 1941–46. https://doi.org/10.1038/s41591-023-02475-5.
- Borera, E. C., Moore, B. L., Doufas, A. G. & Pyeatt, L. D. An Adaptive Neural Network Filter for Improved Patient State Estimation in Closed-Loop Anesthesia Control. in 2011 IEEE 23rd International Conference on Tools with Artificial Intelligence 41-46 (2011). http://doi.org/10.1109/ICTAI.2011.15
- Ebrahimi Zade, A., Shahabi Haghighi, S. & Soltani, M. Reinforcement learning for optimal scheduling of glioblastoma treatment with temozolomide. Computer Methods Prog. Biomedicine 193, 105443 (2020). https://doi.org/10.1016/j.cmpb.2020.105443
Biologie
LITERATURHINWEISE
- Treloar, N. J., Braniff, N., Ingalls, B., & Barnes, C. P. (2022). Deep reinforcement learning for optimal experimental design in biology. PLoS Computational Biology, 18(11), e1010695. http://doi.org/10.1371/journal.pcbi.1010695.
- Lutz, I. D., Wang, S., & Baker, D. (2023). Top-down design of protein architectures with reinforcement learning. Science, 380(6639), 1234-1239. http://doi.org/10.1126/science.adf6591.
Chemie
LITERATURHINWEISE
- Zhou, Z., Li, X., & Zare, R. N. (2017). Optimizing Chemical Reactions with Deep Reinforcement Learning. ACS Central Science, 3(12), 1337-1344. http://doi.org/10.1021/acscentsci.7b00492.
Wirtschaft
LITERATURHINWEISE
-
Huang, Y., Zhou, C., Cui, K., & Lu, X. (2024). A multi-agent Reinforcement Learning Framework for optimizing financial trading strategies based on TimesNet. Expert Systems with Applications, 237, 121502. https://doi.org/10.1016/j.eswa.2023.121502
Geologie
LITERATURHINWEISE
-
Shi, Z., Zuo, R. & Zhou, B. Deep Reinforcement Learning for Mineral Prospectivity Mapping. Math Geosci 55, 773–797 (2023). https://doi.org/10.1007/s11004-023-10059-9
Journalismus
LITERATURHINWEISE
- Bangari, Sindhuja, Shantharam Nayak, Ladly Patel, and K T Rashmi. “A Review on Reinforcement Learning Based News Recommendation Systems and Its Challenges.” In 2021 International Conference on Artificial Intelligence and Smart Systems (ICAIS), 260–65, 2021. https://doi.org/10.1109/ICAIS50930.2021.9395812.
- Wang, Yaqing & Yang, Weifeng & Ma, Fenglong & Xu, Jin & Zhong, Bin & Deng, Qiang & Gao, Jing. (2020). Weak Supervision for Fake News Detection via Reinforcement Learning. Proceedings of the AAAI Conference on Artificial Intelligence. 34. 516-523. http://doi.org/10.1609/aaai.v34i01.5389.
(1) Schreiben Sie Ihre Antwort auf eine neue Taskcard.
(2) Bitte geben Sie Ihren Namen an.
(3) Verwenden Sie kein KI-System. Nutzen Sie nur Ihr aktuelles Wissen und vertrauenswürdige Quellen.
(4) Lesen Sie die Antworten Ihrer Mitlernenden bitte erst, nachdem Sie Ihre eigene Antwort abgegeben haben.
(5) Bitte gehen Sie erst zur nächsten Seite, wenn Sie hier geantwortet haben.