Пока что использую такое решение, но дело в том, что в будущем придеться парсить файлы размером в 200 метров и больше. Так что парсить весь файл ради одной строки как-то жирно :\
csvfile = open(str(url), newline='') start = time.time() csvobj = csv.reader(csvfile, delimiter=';') # парсинг файла end = time.time() print("Время парсинга:", end-start) # вывод времени работы парсера fields = csvobj.__next__() # пропуск первой строки