A generatív mesterséges intelligencia (GenAI) alkalmazása a rendészeti kutatásokban
Copyright (c) 2026 Erdélyi Katalin

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
Absztrakt
Bevezetés: A generatív mesterséges intelligencia (GenAI) a 21. század egyik legjelentősebb technológiai innovációja. Bár rendészeti célú alkalmazása jelenleg még korai fázisban van, hosszú távú stratégiai eszközzé válhat a rendészeti kutatásokban.
Célkitűzések: A tanulmány célja a GenAI-technológiák hazai adaptációjának elősegítése a rendészeti szektorban. Ennek keretében feltárja a GenAI-alapú kutatások hatékony megvalósításához szükséges legfontosabb technológiai összetevők – mint tanítóadatok, kontextusablak-méret, promptstratégia, hallucináció és validáció – sajátosságait. Emellett kitér a GenAI felelős alkalmazásának kérdéseire, a tudományos megbízhatóság szempontjaira és a kutatói szerepek átalakulására. A technológiai potenciált friss, nemzetközi rendészeti kutatási példák révén szemlélteti.
Módszertan: A tanulmány 2016–2025 közötti időszakból származó, több mint 40 tudományos és szakpolitikai dokumentum áttekintésén alapul, többnyelvű keresési stratégiát alkalmazva.
Eredmények: A kutatás során azonosítottuk a generatív mesterséges intelligencia felhasználhatóságát és megbízhatóságát meghatározó alapvető technológiai összetevőket. A GenAI rendészeti célú alkalmazása már megjelent a gyakorlatban, de a nemzetközi példák jellemzően pilotprojektekhez kötődnek, és inkább technológiai kuriózumként, mintsem rutinszerűen használati eszközként jelennek meg. A nemzetközi esettanulmányok a GenAI olyan innovatív alkalmazásait mutatják be, amelyekben e technológiát pszichológiai mintázatok – például manipulációs stratégiák, fenyegető vagy kényszerítő kommunikációs formák – azonosítására, érvelési struktúrák feltárására, valamint digitális nyomozati dokumentumok gyors feldolgozására alkalmazták.
Konklúzió: A GenAI-technológia valódi potenciálja akkor bontakozhat ki, ha a felhasználók megfelelő szintű ismeretekkel rendelkeznek a működéséről, és képesek azt tudatosan, szabályozott keretek között alkalmazni. A GenAI tudományos munkába történő sikeres integrációja megköveteli a módszertani szemléletváltást, valamint a kutatói szerepkörök kiterjesztését olyan irányokba, ahol a kutató egyszerre működik technológiai eszközhasználóként, kritikai validátorként és etikai döntéshozóként. Ez a megközelítés biztosítja, hogy a GenAI által generált eredmények tudományosan megalapozottak, etikailag elfogadhatók és módszertanilag ellenőrizhetők maradjanak.
Kulcsszavak:
Hogyan kell idézni
Hivatkozások
ANDERSEN, Jens Peter et al. (2025): Generative AI in the Research Process – A Survey of Researchers’ Practices and Perceptions. SocArXiv. Online: https://doi.org/10.31235/osf.io/83whe
ANGWIN, Julia et al. (2016): Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks. ProPublica. Online: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Artificial Analysis (2025): Independent Evaluations of AI Models and Providers. Online: https://artificialanalysis.ai
BAROCAS, Solon – SELBST, Andrew D. (2016): Big Data's Disparate Impact. California Law Review, 104, 671–732. Online: https://doi.org/10.2139/ssrn.2477899
BENDER, Emily M. et al. (2021): On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610–623. Online: https://doi.org/10.1145/3442188.3445922
BODNÁR András Péter (2022): A digitális bizonyítékok megjelenése a büntetőeljárásban – különös tekintettel a szakértő igénybevételére. Büntetőjogi Szemle, 1, 19–29. Online: https://szakcikkadatbazis.hu/doc/6289137
CARLINI, Nicholas et al. (2021): Extracting Training Data from Large Language Models. USENIX Security Symposium. Online: https://arxiv.org/abs/2012.07805
COHEN, Jacob (1960): A Coefficient of Agreement for Nominal Scales. Educational and Psychological Measurement, 20(1), 37–46. Online: https://doi.org/10.1177/001316446002000104
Common Crawl Foundation [é. n.]: Common Crawl. Online: https://commoncrawl.org
Elsevier (2025): Generative AI Policies for Journals. Online: https://www.elsevier.com/about/policies-and-standards/generative-ai-policies-for-journals
EHTESHAM, HIRA (2025): AI Hallucination Report 2026: Which AI Hallucinates the Most? All About AI, 2025. december 4. Online: https://www.allaboutai.com/resources/ai-statistics/ai-hallucinations/#low-hallucination-group
Európai Parlament és Tanács (2024): Az Európai Parlament és a Tanács (EU) 2024/1689 rendelete a mesterséges intelligenciára vonatkozó harmonizált szabályok megállapításáról, valamint egyes korábbi jogszabályok módosításáról. Hivatalos Lap, L 2024/1689. Online: https://eur-lex.europa.eu/legal-content/HU/TXT/?uri=CELEX:32024R1689
GRÓF József (2025): Hallucinációk az MI-kutatásban. ITBusiness, 2024. június 4. Online: https://itbusiness.hu/technology/gadget/hallucinaciok-az-mi-kutatasban
HUYNH, Daniel (2023): Automatic Hallucination Detection with SelfCheckGPT NLI. Hugging Face, 2023. november 27. Online: https://huggingface.co/blog/dhuynh95/automatic-hallucination-detection
LI, Hui – WU, Xiaofeng (2025): The Use of Generative AI Tools in Academic Writing: A Systematic Review of Reseach Trends and Thematic Insights. AI and Ethics, 5, 5821–5840. Online: https://doi.org/10.1007/s43681-025-00827-0
MANAKUL, Potsawee – LIUSIE, Adian – GALES, Mark J. F. (2023): SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for Generative Large Language Models. arXiv preprint arXiv:2303.08896. Online: https://doi.org/10.18653/v1/2023.emnlp-main.557
MAYNEZ, Joshua et al. (2020): On Faithfulness and Factuality in Abstractive Summarization. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, July, 1906–1919. Online: https://doi.org/10.18653/v1/2020.acl-main.173
MEHRABI, Ninareh et al. (2021): A Survey on Bias and Fairness in Machine Learning. ACM Computing Surveys, 54(6), 1–35. Online: https://doi.org/10.1145/3457607
MOSQUEIRA-REY, Eduardo et al. (2023): Human-In-The-Loop Machine Learning: A State of the Art. Artificial Intelligence Review, 56(4), 3005–3054. Online: https://doi.org/10.1007/s10462-022-10246-w
MUÑOZ-SORO, José Félix et al. (2024): A Neural Network to Identify Requests, Decisions, and Arguments in Court Rulings on Custody. Artificial Intelligence and Law, 33, 101–135. Online: https://doi.org/10.1007/s10506-023-09380-9
Nature Portfolio (2023): Tools Such as ChatGPT Threaten Transparent Science; Here Are Our Ground Rules for Their Use. Nature, 613, 612. Online: https://doi.org/10.1038/d41586-023-00191-1
NIKOLAKOPOULOS, Anastasios et al. (2024): Large Language Models in Modern Forensic Investigations: Harnessing the Power of Generative Artificial Intelligence in Crime Resolution and Suspect Identification. 2024 5th International Conference on Computer Science and Technologies in Education (CSTE). Online: https://ieeexplore.ieee.org/abstract/document/10654427
OpenAI (2019): WebText Dataset. Online: https://github.com/openai/gpt-2
OpenAI (2024): GPT-4 Technical Report: Performance Metrics and Computational Specifications. OpenAI Technical Publications. Online: https://arxiv.org/abs/2303.08774
PACCHIONI, Federico et al. (2025): Generative AI and Criminology: Threat or Promise? Exploring the Potential and Pitfalls of Identifying Techniques of Neutralization (Ton). PLOS ONE, 20(4), e0319793. Online: https://doi.org/10.1371/journal.pone.0319793
PEREZ, Fábio – RIBEIRO, Ian (2022): Ignore Previous Prompt: Attack Techniques for Language Models. arXiv preprint arXiv:2211.09527. Online: https://arxiv.org/abs/2211.09527
Pécsi Tudományegyetem Közgazdaságtudományi Kar (2025): A mesterséges intelligencia használatára vonatkozó irányelvek. Online: https://ktk.pte.hu/sites/ktk.pte.hu/files/uploads/szabalyzatok/mi-iranyelvek_pte-ktk.pdf
PRESS, Ofir – SMITH, Noah A. – LEWIS, Mike (2022): Train Short, Test Long: Attention With Linear Biases Enables Input Length Extrapolation. International Conference on Learning Representations (ICLR). Online: https://doi.org/10.48550/arXiv.2108.12409
RADFORD, Alec et al. (2018): Improving Language Understanding by Generative Pre-Training. OpenAI. Online: https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf
RAFFEL, Colin et al. (2020): Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. Journal of Machine Learning Research, 21(140), 1–67. Online: https://arxiv.org/abs/1910.10683
RAJI, Inioluwa Deborah et al. (2020): Closing the AI Accountability Gap: Defining an End-To-End Framework for Internal Algorithmic Auditing. Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency, 33–44. Online: https://doi.org/10.1145/3351095.3372873
RAYNER, Keith et al. (2016): So Much to Read, so Little Time: How Do We Read, and Can Speed Reading Help? Psychological Science in the Public Interest, 17(1), 4–34. Online: https://doi.org/10.1177/1529100615623267
RAMIREZ-CAMARA, Ellie (2024): Iris.ai Secured €7.64M to Optimize its AI Engine for Scientific Text Understanding. Dataphoenix, 2024. június 3. Online: https://dataphoenix.info/iris-ai-secured-eu7-64m-to-optimize-its-ai-engine-for-scientific-text-understanding/
SENNRICH, Rico – HADDOW, Barry – BIRCH, Alexandra (2016): Neural Machine Translation of Rare Words With Subword Units. Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, 1, 1715–1725. Online: https://doi.org/10.18653/v1/P16-1162
VASWANI, Ashish et al. (2017): Attention is All You Need. Advances in Neural Information Processing Systems, 30. Online: https://research.google/pubs/attention-is-all-you-need/
Vectara (2025): Hallucination Leaderboard: Comparing LLM Performance at Producing Hallucinations when Summarizing Short Documents. GitHub. https://github.com/vectara/hallucination-leaderboard
ZOU, Andy et al. (2023): Universal and Transferable Adversarial Attacks on Aligned Language Models. arXiv preprint arXiv:2307.15043. Online: https://arxiv.org/abs/2307.15043