Digital Library

cab1

 
Title:      OPTIMIZACIÓN DE DATASETS DE LA DARK WEB PARA SU PROCESAMIENTO EN OPENAI
Author(s):      Víctor-Pablo Prado-Sánchez, Adrián Domínguez-Díaz, Luis de-Marcos y José-Javier Martínez-Herráiz
ISBN:      978-989-8704-64-1
Editors:      Paula Miranda, Flávia Maria Santoro e Cristiano Costa
Year:      2024
Edition:      Single
Keywords:      Dark Web, Darknet, Datasets, LLM, OpenAI, ChatGPT
Type:      Fulls
First Page:      103
Last Page:      110
Cover:      cover          
Full Contents:      click to dowload Download
Paper Abstract:      Este estudio aborda la optimización del uso de tokens y la reducción de costos operativos en la clasificación de contenidos de la Dark Web utilizando modelos LLM de OpenAI. La metodología aplicada incluyó la limpieza y filtración de datos, lo que condujo a una reducción del 85% en el consumo de tokens en direcciones con documentos en inglés, sin comprometer el rendimiento del modelo GPT-3.5 Turbo en cuanto a precisión, sensibilidad y F1-score. Se concluye que la optimización de tokens es efectiva para reducir recursos y costes sin comprometer la clasificación de grandes volúmenes de datos.
   

Social Media Links

Search

Login