- fas fa-search
- fab fa-facebook
- Accessibility
Hírek
Új adattudomány mesterképzés indul a Pannon Egyetemen
Adattudomány, gépi tanulás, mesterséges intelligencia. Ezek mind olyan divatos és hangzatos kifejezések, melyeket manapság sokszor hallunk, de valójában mit is jelentenek ezek a szavak? Nem túlzás azt állítani, hogy az adatok korát éljük. Tetszik, vagy sem mindennapi életünk legfontosabb aspektusává vált az információ. Talán nem is gondolnánk, de egy egész iparág épül erre a felfoghatatlan mennyiségű, de csak elvétve egyszerűen bányászható adatra. Ebben a bizonytalan és komplex világban kecsegtet a biztonság ígéretével az adattudomány.

Forrás: Saját kép
Adattudomány a „techóriások” szerint
Az adattudomány fogalmát az IBM a következőképp definiálja: az adattudomány a matematikát, statisztikát, programozást, az adatelemzést, a mesterséges intelligenciát és a gépi tanulást ötvözi egyéb speciális szakismeretekkel annak érdekében, hogy feltárja a szervezet adataiban rejlő hasznosítható összefüggéseket. Ezek az információk felhasználhatók az üzleti eredmények javítása érdekében tett javaslatok megfogalmazásában, valamint a stratégiai tervezés és döntéshozatal során.
Az Amazon megfogalmazásában az adattudomány az üzleti élet számára értelmezhető és hasznosítható adatok tanulmányozását és a felismerések kinyerését jelenti. Olyan multidiszciplináris megközelítés, mely a matematika, statisztika, mesterséges intelligencia és a számítástechnika különböző területeiről származó módszertanokat, gyakorlati megoldásokat egyesíti annak érdekében, hogy a rendelkezésre álló adathalmaz elemezhető legyen. Az adattudomány segítséget nyújt olyan kérdések megválaszolásában, hogy mi miért történt, illetve olyan kérdések felvetésében, hogy mi fog történni és mit lehet tenni a kapott eredményekkel.
A Microsoft olvasatában az adattudomány az adatok tudományos szintű tanulmányozását jelenti az információ megszerzése érdekében. Ez a terület több tudományágat egyesít, hogy hatalmas adathalmazokból tudást vonjon ki a megalapozott döntések és előrejelzések meghozatala céljából. Az adattudomány területén adattudósok, adatelemzők, adatmérnökök, statisztikusok, adatbázis-adminisztrátorok és üzleti elemzők dolgoznak.
Az adattudomány iránti igény gyorsan növekszik, mivel az adatmennyiség exponenciálisan nő. A vállalatok egyre nagyobb mértékben függnek az elemzésektől a bevételek növelése és az innováció előmozdítása érdekében. Például az üzleti interakciók egyre digitálisabbá válásával több adat keletkezik, ami új lehetőségeket kínál a tapasztalatok személyre szabására, a szolgáltatások minőségének fejlesztésére és az ügyfélelégedettség javítására.
A kutatási adatok tudománya?
Ebben a hónapban kezdődött a Research Data Alliance (RDA) egész éven át tartó megemlékezése a kutatásiadat-kezelés dedikált nemzetközi szövetsége megalapításának 10. évfordulója alkalmából.
Az RDA egy kutatói közösségi szervezet, melyet 2013-ban az Európai Bizottság, az Amerikai Nemzeti Tudományos Alapítvány és a Nemzeti Szabványügyi és Technológiai Intézet, valamint az Ausztrál Innovációs Minisztérium indított útjára. Célja az adatmegosztást, az adatvezérelt kutatást elősegítő technikai, társadalmi és közösségi infrastruktúra fejlesztése, valamint kiépítése. Az elmúlt tíz évben az RDA több mint 130 országból 13 000 tagot toborzott, infrastruktúrájukat ma már a világ minden táján alkalmazzák.

Forrás: https://www.rd-alliance.org/national-node-icons-10
Hazánkban a tudományos élet több meghatározó szervezete is csatlakozott az RDA közösséghez. A magyar résztvevőkről, adatpolitikáról és a szerepvállalásokról bővebb információ a http://hrda.hu/ és a https://www.rd-alliance.org/groups/rda-hungary oldalakon érhető el.
Az "Egy évtizednyi adatot" ünnepelve a szervezet az év során számos nemzetközi és regionális eseményt tart, hogy reflektáljon az eredményeire, elismerje közössége tagjait, partnereit és támogatóit. További információk a következő linken érhetők el: https://www.rd-alliance.org/research-data-alliance-commemorates-10th-anniversary-%E2%80%98-decade-data%E2%80%9D-0
Adattudomány a Pannon Egyetemen – interjú Dr. Fogarassyné dr. Vathy Ágnessel a szeptemberben induló Adattudomány MSc szakfelelősével

Dr. Fogarassyné dr. Vathy Ágnes
tanszékvezető egyetemi docens, az adattudomány mesterszak szakfelelőse
Mi a Data Science?
Az adattudományt, mint tudományterületet nehéz lenne egzakt módon definiálni, de bármilyen aspektusból is közelítünk hozzá, a középpontban az adatok tárolásának, feldolgozásának és az adatokból történő információkinyerésnek módszertanát és megvalósítását találjuk. Az adattudomány a hatékony adatbázis-kezelés és adatfeldolgozás, az adatvizualizáció, a statisztika, a programozás és a mesterséges intelligencia, illetve ezen belül főként az adatalapú gépi tanulás eszköztárát ötvözi azon célból, hogy a rendelkezésünkre álló adatvagyonból értékes információkat nyerjen ki. Ezek lehetnek egyszerűbb direkt statisztikai jellegű lekérdezések is, de elsősorban az új, eddig ismeretlen összefüggések feltárása jelenti az érdekes és izgalmas kihívást.
Milyen fő lépésekből áll az információkinyerés folyamata?
Ahhoz, hogy mindezt megvalósítsuk, első lépésben össze kell gyűjtenünk az adatokat, majd azokat egységes rendszerbe kell szerveznünk. Ezt követően elő kell készíteni őket ahhoz, hogy releváns, megbízható információkat nyerhessünk ki belőlük. Azt szoktuk mondani, hogyha egy adatalapú tudásfeltáró folyamat inputja szemét, akkor az output oldalon is szemetet kapunk. Ezért az adatalapú információfeltárás fontos lépése az adatok megtisztítása és az elemzések számára történő előkészítése. A tudásfeltárás jellemzően felügyelt, illetve nem felügyelt gépi tanuló algoritmusok alkalmazása révén valósul meg, de természetesen fontos szerepet kapnak deduktív lekérdezések is. Napjainkban sokszor azt tapasztalom, hogy szinte mindenki foglalkozik adatalapú információfeltárással, még akkor is, ha nincs teljes mértékben tisztában ezen algoritmusok és módszerek működésével és korlátaival. Az új ismeretek feltárása nem triviális feladat, és ehhez szükség van olyan szakemberekre, akik komplex szemlélettel és eszköztárral rendelkeznek a tématerület egészét tekintve, s nem csak ismerik, hanem nagy biztonsággal használják ezen eszközöket. A feltárt tudást jellemzően a szakterület szakértői értelmezik és validálják, majd ezen lépést követi az alkalmazásba történő bevezetése. A folyamat természetesen iteratív jellegű, melyben fontos szerepe van a validálásnak és az újabb és újabb ismeretek feltárásának is.
Miért döntöttek úgy, hogy a Pannon Egyetem is indítson egy ilyen képzést?
A szak képzési és kimeneti követelményeinek megjelenését követően nagyon rövid időn belül döntöttünk a szak indítása mellett. A Pannon Egyetem Műszaki Informatikai Karán régóta tanítunk adattudománnyal kapcsolatos ismereteket, tulajdonképpen folyamatosan tudatosan készültünk arra, hogy egyszer majd lehetőségünk lesz egy ilyen mesterképzés indítására. Én magam már mintegy 20 éve tanítok adatbányászatot, s még régebb óta adatbázis-kezelési ismereteket. Kollegáimmal folyamatosan fejlesztettük a képzéshez szükséges kompetenciákat, s folyamatosan építettük be ezen ismeretköröket egy-egy meglévő kötelező, vagy kötelezően választható tantárgy anyagába. A képzéshez kapcsolódóan természetesen új tantárgyakat is kidolgoztunk, melyek megvalósításába nagy lelkesedéssel kapcsolódtak be új kollégák is. Mindemellett a szak oktatásában részt vesznek majd a Pannon Egyetem Mérnöki Karának és Gazdaságtudományi Karának oktatói is, amely tovább emeli a képzés színvonalát és bővíti az elsajátítható ismeretek körét.
Kinek ajánlják a képzést? Kik alkotják a szak célközönségét?
A képzés elsősorban informatikai fókuszú. Főként azon hallgatók jelentkezését várjuk, akik informatikai BSc, vagy MSc diplomával rendelkeznek, és szívesen bővítenék ismereteiket az adattudomány irányába. Közülük sokan dolgoznak már most is ezen a területen, az érdeklődők jelentős százalékát ők teszik ki. Ugyanakkor természetesen nem szűkítjük a kört csupán az informatikus végzettségű kollégákra. Megfelelő szakmai alapismeretek birtokában, a Képzési és Kimeneteli Követelményrendszer által előírt alapfeltételek teljesítése esetén örömmel várjuk egyéb szakemberek jelentkezését is.
Milyen alapszakok elvégzése után lehet jelentkezni?
A felvételi során a képzési és kimeneti követelményekben meghatározottak szerint teljes kreditérték beszámításával vehetők figyelembe az informatika képzési területről a programtervező informatikus, a mérnökinformatikus, és a gazdaságinformatikus alapszakok, az ilyen végzettséggel rendelkezők automatikusan teljesítik a bemeneti követelményeket. Bármilyen egyéb végzettség esetén a felvételi eljárás részeként kreditelismerési eljárást kell lefolytatni. Ennek során azt kell megvizsgálnunk, hogy a jelentkező korábbi tanulmányai alapján rendelkezik-e az informatikai ismeretek, a természettudományos ismeretek és a gazdasági és humán ismeretek tárgycsoportokon belül a meghatározott témakörökből előírt kreditekkel. Erről az érdeklődők számára részletes tájékoztatást adunk a Műszaki Informatikai Kar honlapjáról elérhető weboldalon.
Hogyan épül fel a képzés?
A tantervben a legfontosabb szakmai ismeretek a kötelező tantárgyak keretei között jelennek meg, mellette a hallgatók az érdeklődésüknek megfelelően választhatnak a kötelezően választható tárgyak kínálatából. A kötelezően választható tárgyak között olyan izgalmas témakörökkel foglalkozunk, mint a szöveges és képi adatok feldolgozása, a GPU programozás, de itt kaptak helyet az adattudomány különböző szakterületeihez kötődő speciális ismeretek is, mint például az egészségügyi adatok elemzése, a gazdasági adatok elemzése, illetve a gépi tanuláson alapuló termelési és szolgáltatási intelligencia megoldások fejlesztése. A képzést nappali és levelező tanulmányi rendben is indítjuk, melynek időtartalma 4 félév, de természetesen folyamatosan figyeljük a piaci igényeket is, hogy a képzés struktúráját és tartalmát naprakészen tartsuk.
Milyen új, piacképes ismeretekre tehetnek szert a hallgatók? Mely területeken tudnak elhelyezkedni a végzett hallgatók?
A képzést követően az okleveles adattudósok alkalmassá válnak arra, hogy vezető szerepet töltsenek be a vállalatok adatalapú döntéshozatalának támogatásában és a rendelkezésre álló adatvagyont üzleti értékké formálják. A megszerzett tudással olyan adatorientált pozíciók tölthetők be, mint például Data Scientist, Data Analyst, Data Engineer, Deep Learning Engineer, AI Data Engineer, BI Developer, Big Data Engineer/Architect, Data Integration Engineer.
Hogyan és meddig lehet jelentkezni?
A képzésre a felvi.hu rendszerén keresztül kell jelentkezni. A jelentkezési határidő február 15. Minden kedves leendő hallgatónkat szeretettel várjuk!

Forrás: https://globalpolicy.ai/en/unesco/
Keresse az egyetemi könyvtárban új szakkönyveinket az adattudomány témájában!
![]() |
Data Mining: Concepts and Techniques- Jiawei Han, Micheline Kamber, Jian PeiData Mining: Concepts and Techniques- Jiawei Han, Micheline Kamber, Jian PeiData Mining: Concepts and Techniques provides the concepts and techniques in processing gathered data or information, which will be used in various applications. Specifically, it explains data mining and the tools used in discovering knowledge from the collected data. This book is referred as the knowledge discovery from data (KDD). It focuses on the feasibility, usefulness, effectiveness, and scalability of techniques of large data sets. After describing data mining, this edition explains the methods of knowing, preprocessing, processing, and warehousing data. It then presents information about data warehouses, online analytical processing (OLAP), and data cube technology. Then, the methods involved in mining frequent patterns, associations, and correlations for large data sets are described. The book details the methods for data classification and introduces the concepts and methods for data clustering. The remaining chapters discuss the outlier detection and the trends, applications, and research frontiers in data mining. This book is intended for Computer Science students, application developers, business professionals, and researchers who seek information on data mining.
|
![]() |
Python Data Science Handbook - Jake VanderPlasFor many researchers, Python is a first-class tool mainly because of its libraries for storing, manipulating, and gaining insight from data. Several resources exist for individual pieces of this data science stack, but only with the Python Data Science Handbook do you get them all—IPython, NumPy, Pandas, Matplotlib, Scikit-Learn, and other related tools. Working scientists and data crunchers familiar with reading and writing Python code will find this comprehensive desk reference ideal for tackling day-to-day issues: manipulating, transforming, and cleaning data; visualizing different types of data; and using data to build statistical or machine learning models. Quite simply, this is the must-have reference for scientific computing in Python. |
![]() |
Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow: concepts, tools, and techniques to build intelligent systems - Aurélien GéronThrough a series of recent breakthroughs, deep learning has boosted the entire field of machine learning. Now, even programmers who know close to nothing about this technology can use simple, efficient tools to implement programs capable of learning from data. This practical book shows you how. By using concrete examples, minimal theory, and two production-ready Python frameworks—Scikit-Learn and Tensor Flow—author Aurélien Géron helps you gain an intuitive understanding of the concepts and tools for building intelligent systems. You’ll learn a range of techniques, starting with simple linear regression and progressing to deep neural networks. With exercises in each chapter to help you apply what you’ve learned, all you need is programming experience to get started. |
Deep learning: a practitioner's approach - Josh Patterson and Adam GibsonAlthough interest in machine learning has reached a high point, lofty expectations often scuttle projects before they get very far. How can machine learning―especially deep neural networks―make a real difference in your organization? This hands-on guide not only provides the most practical information available on the subject, but also helps you get started building efficient deep learning networks. Authors Adam Gibson and Josh Patterson provide theory on deep learning before introducing their open-source Deeplearning4j (DL4J) library for developing production-class workflows. Through real-world examples, you’ll learn methods and strategies for training deep network architectures and running deep learning workflows on Spark and Hadoop with DL4J. |
![]() |
![]() |
Understanding machine learning: From Theory To Algorithms - Shai Shalev-Shwartz, Shai Ben-DavidMachine learning is one of the fastest growing areas of computer science, with far-reaching applications. The aim of this textbook is to introduce machine learning, and the algorithmic paradigms it offers, in a principled way. The book provides an extensive theoretical account of the fundamental ideas underlying machine learning and the mathematical derivations that transform these principles into practical algorithms. Following a presentation of the basics of the field, the book covers a wide array of central topics that have not been addressed by previous textbooks. These include a discussion of the computational complexity of learning and the concepts of convexity and stability; important algorithmic paradigms including stochastic gradient descent, neural networks, and structured output learning; and emerging theoretical concepts such as the PAC-Bayes approach and compression-based bounds. Designed for an advanced undergraduate or beginning graduate course, the text makes the fundamentals and algorithms of machine learning accessible to students and non-expert readers in statistics, computer science, mathematics, and engineering. |
![]() |
Data Streams: Models and Algorithms - Charu C. AggarwalThis book primarily discusses issues related to the mining aspects of data streams and it is unique in its primary focus on the subject. This volume covers mining aspects of data streams comprehensively: each contributed chapter contains a survey on the topic, the key ideas in the field for that particular topic, and future research directions. The book is intended for a professional audience composed of researchers and practitioners in industry. This book is also appropriate for advanced-level students in computer science. |
Introduction to data mining - Pang-Ning Tan, Michael Steinbach, Anuj Karpatne, Vipin KumarIntroduction to Data Mining presents fundamental concepts and algorithms for those learning data mining for the first time. Each concept is explored thoroughly and supported with numerous examples. The text requires only a modest background in mathematics. Each major topic is organized into two chapters, beginning with basic concepts that provide necessary background for understanding each data mining technique, followed by more advanced concepts and algorithms. |
![]() |
További a témával kapcsolatos és más egyéb könyveink a könyvtár katalógusában kereshetők.






