import argparse

from scraper import Parser
from proxy import ParserProxy


def get_input_parameters():

    """ Получаем входные аргументы """

    parser = argparse.ArgumentParser()

    parser.add_argument('-b', dest='display_browser', default='no', required=False)             # Отображение браузера для основного парсинга
    parser.add_argument('-bp', dest='display_browser_for_proxy', default='no', required=False)  # Отображение браузера для парсинга прокси
    parser.add_argument('-api', dest='api', required=True)
    parser.add_argument('-nt', dest='number_threads', required=True)
    parser.add_argument('-l', dest='link_to_authorization')

    arguments = parser.parse_args()

    display_browser = arguments.display_browser
    display_browser_for_proxy = arguments.display_browser_for_proxy
    api = arguments.api
    number_threads = int(arguments.number_threads)
    link_to_authorization = arguments.link_to_authorization

    data = (display_browser, display_browser_for_proxy, link_to_authorization, api, number_threads)

    return data


def main():

    """ Запуск бота """

    data = get_input_parameters()

    parser = Parser(data)
    parser.start_parsing()

#    proxy = ParserProxy(data)
#    proxy_list = proxy.start_parsing_proxy()
#
#    if proxy_list:
#
#        print(f'Количество полученных прокси - {len(proxy_list)}')
#        parser = Parser(data, proxy_list)
#        parser.start_parsing()
#
#    else:
#
#        print('Нет прокси для парснига')


# ТОЧКА ВХОДА

if __name__ == '__main__':

    main()
