|
Title:
|
OPTIMIZACIÓN DE DATASETS DE LA DARK WEB PARA
SU PROCESAMIENTO EN OPENAI |
|
Author(s):
|
Víctor-Pablo Prado-Sánchez, Adrián Domínguez-Díaz, Luis de-Marcos
y José-Javier Martínez-Herráiz |
|
ISBN:
|
978-989-8704-64-1 |
|
Editors:
|
Paula Miranda, Flávia Maria Santoro e Cristiano Costa |
|
Year:
|
2024 |
|
Edition:
|
Single |
|
Keywords:
|
Dark Web, Darknet, Datasets, LLM, OpenAI, ChatGPT |
|
Type:
|
Fulls |
|
First Page:
|
103 |
|
Last Page:
|
110 |
|
Cover:
|
|
|
Full Contents:
|
click to dowload
|
|
Paper Abstract:
|
Este estudio aborda la optimización del uso de tokens y la reducción de costos operativos en la clasificación de
contenidos de la Dark Web utilizando modelos LLM de OpenAI. La metodología aplicada incluyó la limpieza y filtración
de datos, lo que condujo a una reducción del 85% en el consumo de tokens en direcciones con documentos en inglés, sin
comprometer el rendimiento del modelo GPT-3.5 Turbo en cuanto a precisión, sensibilidad y F1-score. Se concluye que
la optimización de tokens es efectiva para reducir recursos y costes sin comprometer la clasificación de grandes
volúmenes de datos. |
|
|
|
|
|
|