Qui a un a algo qui tourne en reel depuis au moins un an ?

Forums ProRealTime forum Français Support ProOrder Qui a un a algo qui tourne en reel depuis au moins un an ?

Viewing 15 posts - 31 through 45 (of 68 total)
  • #169169

    Je m’excuse pour ce qui précède mais j’ai écrit en anglais.

    Excellente initiative …. malheureusement je n’ai rien de la mienne, mais en faisant une recherche dans le forum j’ai trouvé ce système conçu par Mauro le 30 juin 2020 il semble aller plutôt bien.
    Je joins les images de la performance.

     

    1 user thanked author for this post.
    #169185

    Je vais répondre à tous en même temps. Pour l’ago je peux justemontrer qui est bien démarré en 2021, en fin de mois, parce quej’avais un trade non clôture en décembre et qui s’est fermé enjanvier ( en perte). Donc relancé avec une Maj et version originale, sans aucune optimisation. Je ne peux divulguer plus, pour le momentNicolas en connaît la raison.

    J’ai passé l’âge des formations, mais il est clair que si j’avais 20 ans et devais me former, j’irais chez Vam sans hésiter. Les autres, les plus connus sans les cités sont là pour formés et empochés des abonnés mais se fichent royalement si vous serez positif à la fin du mois. ils trouveront toujours une excuse vous retournant la faute.

    HA !!! une petite précision, généralement je conseille des contrats à 1 €. soit 5 x1 plutôt que 1 à 5 €. quelques différences de résultat réel carreradû au broker

    Même si on peut le comprendre car apparemment il sera sur le market place je ne comprends pas pourquoi tu ne peut pas publier les stats associées vu qu’il faudra que tu les indiques sur le MP ?

    C’est une fois de plus dommage car depuis le début de cette file du coup on ne peut pas discuter notamment des stats et faire avancer le schmilblick…

    Compliqué de parler de licornes si on ne peut pas les voir

    En tout cas merci et bonne soirée

    1 user thanked author for this post.
    #169243

    Bonjour,

    Bien, aujourd’hui on enfonce le clou sur ce que j’ai toujours dit à savoir le peu d’utilité (qui a dit inutilité ?) des backtest et donc Walk Forward

    Protocole de test assez simple

    1/ On fait un Backtest sur 75 % de la période (% de manière arbitraire)

    2/ Et on suit l’évolution de chaque combinaison de variable sur 25 %

    Je rappelle que le but d’un backtest est en grande partie de choisir la meilleure combinaison de variable qui pourra être mise en route en trading auto notamment

    Et bien mes aïeux…

    On voit ainsi que cet cet algo (peu importante lequel, les résultats sont toujours les mêmes), la première combinaison de la liste a perdu sur cette période de 25 % ! (Plafond de verre dont je parle régulièrement)

    Idem pour le second

    Idem pour le 3ème etc.

    Entonnement les 4 et 5ème du backtest on progressé de 27 et 63 % (Ce qui est très bien car pour garder la constance il faut au moins un seuil de 30 %)

    Moralité (C’est reproductible à l’infini toujours avec la même conclusion)

    1/ Choisir le premier des résultats de backtest comme combinaison “idéal” pour passer en trading auto est une erreur ! Et faire un backtest est donc très très peu utile en l’état (Et notamment tant que l’on ne peut pas faire un backtest sur d’autres critères)

    2/ Le Walk Forward (Qui retient donc le premier la liste), ne traduit en aucun cas la réalité = inutile et est grandement faussé et rien ne vaut un filtrage humain ou encore une fois la possibilité de faire un backtest sur d’autres critères/indicateurs

    3/ Il faut différents filtres pour séparer l’ivraie du bon grain (Les 4ème et 5ème position ici par exemple) mais cela c’est une autre histoire

    4/ Je pense que les “licornes” = algo qui gagnent encore après un an, sont l’exception (3 présentations ici sur plusieurs dizaines de milliers de membres francais a priori, en étant généreux 1 pour 10 000 !) où le premier du backtest progresse

    Sur ce bonne journée

    Zilliq

    #169245

    Test sur un autre algo

    Même conclusion (Les 3 premiers sont perdants, dommage si on s’était appuyer sur le backtest pour choisir la combinaison à passer en trading auto ! )

    #169277

    Je suis assez d’accord. L’idéal serait de pouvoir customiser un scoring basé sur un ensemble de critères sélectionnés, de manière à avoir une approche à plusieurs dimensions lors de l’optimisation, et ne pas devoir choisir entre la perf, le max DD etc

    #169285

    Protocole de test assez simple 1/ On fait un Backtest sur 75 % de la période (% de manière arbitraire) 2/ Et on suit l’évolution de chaque combinaison de variable sur 25 %

    Définition du Walk Forward.

    1/ Choisir le premier des résultats de backtest comme combinaison “idéal” pour passer en trading auto est une erreur !

    Oui on le sait bien, mais pourquoi à nouveau l’indiquer dans ce sujet comme une “découverte” ?

    2/ Le Walk Forward (Qui retient donc le premier la liste), ne traduit en aucun cas la réalité = inutile et est grandement faussé et rien ne vaut un filtrage humain ou encore une fois la possibilité de faire un backtest sur d’autres critères/indicateurs

    Le WF restitue une série d’optimisations sur le passé, avec les meilleures performances au final. Mais à nouveau, on le sait déjà avant d’appuyer sur le bouton “backtest”, qu’il s’agit d’un backtest et donc d’une performance sur le passé, non ? Alors pourquoi continuer à s’indigner que le futur n’est pas identifiable et que l’algo “fail” à s’adapter ? Il ne le pourra pas tout seul, d’où l’inutilité de la question du sujet, qui a-t-il d’incorrect à retoucher un algo pour qu’il continue à performer ?

    N’est-ce pas là justement tout le rôle d’un développeur d’algo ?

    Si il fallait simplement backtester avec plus d’outils qu’actuellement comme tu le suggères, cela suffirait-il à connaître le futur et donc performer sans rien faire à la “plug and play” ? On connaît tous la réponse, non bien entendu.

    Soit on cherche indéfiniment quelque chose qui n’existera jamais (un truc sûre et qui bougera jamais, sans se soucier de ce que fera le marché), soit on fait avec et on confie ce travail de recherches  et de développements à des gens qui le peuvent, parce qu’ils ont du temps et des connaissances.

    Sinon, avec une assurance vie banale, on arrivera bien à faire un ptit 5% annuel.

    #169288

    “Définition du Walk Forward.”

    Euh non, ce n’est pas le même protocole qu’un WF (Simple passe), ne serait ce que dans les résultats (unique pour le WF par exemple) et sinon je n’aurai pas passé des heures à créer un excel de recalcul de toutes les données disponibles pour le plaisir de faire doublon avec un WF existant déjà

    “Oui on le sait bien, mais pourquoi à nouveau l’indiquer dans ce sujet comme une “découverte” ?”

    Euh non, combien de personnes ici sont persuadées que le backtest ne sert à rien ? Notamment vu le nombre de backtest qui sont fait quotidiennement ?

    “Le WF restitue une série d’optimisations sur le passé, avec les meilleures performances au final..”

    Je pense que l’on s’est mal compris, ce que je veux dire c’est que promouvoir le WF comme le test ultime d’un algo, la robustesse etc.. est erroné comme indiqué ici.

    Passe une bonne après midi

    #169292

    C’est bien la définition du test de marche en avant. On prend chaque set de variables d’optimisations et on le test sur la période OOS. En effet le module inclut dans la plateforme ne restitue que le set qui a la meilleure performance en argent, au final, ok pour ce point.

    Hormis faire un backtest, on ferait quoi d’autres pour tester une stratégie dans ce cas ? Puisque le développement de stratégie a été mené sur des data qui existent (ou randomisé pourquoi pas), il faut bien les tester. Je te l’accorde, un backtest ne suffit pas, d’où des tests de robustesse (le WF en étant un, mais pas le seul, mais il a l’avantage d’être disponible dans la plateforme !), mais avant que tu redises que ça ne sert à rien, je l’affirme à nouveau, tu as raison, un WF ne déterminera pas que ce sera le futur et donc en l’état n’est pas compatible avec le vœu pieu de l’algo parfait que tu cherches.

    Évidemment que le WF n’est pas une preuve irrefutable que tout va bien dans le meilleur des mondes, mais en tant qu’être humain, et n’étant pas doué de super pouvoirs, il faut bien s’appuyer sur des données statistiques pour se donner une orientation sur ce qui est bien, moyen ou peu intéressant.

    Au final, et comme je l’ai évoqué dans tous les sujets liés à l’optimisation et aux tests de robustesse, c’est pas la plateforme, ou l’icône qui affiche des données toutes vertes dans votre backtest qui vous dira si oui ou non vous devez lancer l’algo sur votre compte, c’est votre décision motivée par votre propre analyse et votre aversion au risque qui le fera.

    #169296

    Salut Zilliq,
    Je pense qu’il ne suffit pas de créer un système de trading gagnant pour pouvoir gagner en bourse, mais je pense qu’il faut d’abord être un bon ou plutôt un excellent trader qui gagne depuis des années et ensuite transformer ses connaissances en un système de trading gagnant ….. cela ne me semble qu’un raccourci et peut-être aussi une illusion de pouvoir croire gagner facilement ….. mais c’est peut-être juste ma pensée.

    1 user thanked author for this post.
    #169301

    C’est bien la définition du test de marche en avant. On prend chaque set de variables d’optimisations et on le test sur la période OOS. En effet le module inclut dans la plateforme ne restitue que le set qui a la meilleure performance en argent, au final, ok pour ce point.

    Hormis faire un backtest, on ferait quoi d’autres pour tester une stratégie dans ce cas ? Puisque le développement de stratégie a été mené sur des data qui existent (ou randomisé pourquoi pas), il faut bien les tester. Je te l’accorde, un backtest ne suffit pas, d’où des tests de robustesse (le WF en étant un, mais pas le seul, mais il a l’avantage d’être disponible dans la plateforme !), mais avant que tu redises que ça ne sert à rien, je l’affirme à nouveau, tu as raison, un WF ne déterminera pas que ce sera le futur et donc en l’état n’est pas compatible avec le vœu pieu de l’algo parfait que tu cherches.

    Évidemment que le WF n’est pas une preuve irrefutable que tout va bien dans le meilleur des mondes, mais en tant qu’être humain, et n’étant pas doué de super pouvoirs, il faut bien s’appuyer sur des données statistiques pour se donner une orientation sur ce qui est bien, moyen ou peu intéressant.

    Au final, et comme je l’ai évoqué dans tous les sujets liés à l’optimisation et aux tests de robustesse, c’est pas la plateforme, ou l’icône qui affiche des données toutes vertes dans votre backtest qui vous dira si oui ou non vous devez lancer l’algo sur votre compte, c’est votre décision motivée par votre propre analyse et votre aversion au risque qui le fera.

    Tout d’abord bravo pour ton ouverture d’esprit Nicolas 😉 Je pense que sur le fond on est d’accord

    Ce que je veux, d’une certaine manière, c’est mettre un coup de pied dans la fourmilière et que nous ouvrions toutes et tous les yeux et s’apercevoir que les dès sont pipés dès le départ malheureusement, ce qui explique d’une part qu’il y ait très peu de licornes, mais que nous soyons des millions à les chercher 🙂 Mais avec de mauvais outils …

    On passe des heures à créer des algos, et actuellement notre (quasi) seul moyen de l’apprécier c’est de faire un backtest, et (quasi) seul moyen de tester sa robustesse est de faire un WF, car oui on a bien que ça

    Sauf que comme démontré plus haut, un backtest malheureusement, s’il satisfait l’égo, ne permet en aucun cas de donner la ou les meilleures combinaisons de variables pour enfin mettre l’algo en réel (ce que nous faisons toutes et tous depuis des lustres.) et le WF qui n’est qu’une répétition de backtest (donc erroné) n’évaluera pas plus la robustesse de l’algo, tout au plus il permettra de dire si le 1er résultat du backtest est gagnant et de manière reproductible sur x séries de backtest (ce qui est très rare donc). Tout ceci explique, notamment, pourquoi tant de jolis backtests se soldent pas de magnifiques échecs en réel ou en démo, et on s’en étonne encore… Et je ne te parle pas des vendeurs d’algos qui utilisent ces WF pour vendre leur produit, rien que l’idée …

    Alors oui on a que ça, les backtest, les WF=x backtests mais est ce une raison pour s’en accommoder ?

     

     

     

    #169307

    Pour illustrer un peu plus mes propos, quelques tests

    Tout d’abord la situation “idéale” recherchée par tout codeur en algo et toute personne espérant un jour trouver le “Graal”

    On fait un WF, et c’est magnifique, le une passe est positif (Oui je n’ai pas fait un 5 passes qui n’est que la recherche d’une reproductibilité, et pour un simple gain de temps)

    Efficacité WF de 61.8 % Gain de 25 %

    Et effectivement en le faisant en manuel on retrouve ce gain de 25 % sur les 25 % d’OOS

    Bref, on pourrait qualifier cet algo d’un “bon” algo que l’on “pourrait” mettre en réel (bon ok on ferait les 5 passes avant pour tester la reproductibilité, mais bon vu que le propos ici est de vous montrer que c’est inutile on ne va pas le faire)

    #169311

    Et maintenant la situation la plus commune, que l’on a tous vécu

    Je relance un autre test avec un autre algo

    Et la patatam, le WF est catastrophique

    Efficacité WF -226% chute de 2620 euros de gain à 620 soit une baisse de 75 % etc…

    Et pour cause, comme on ne voit sur les graph, vu que le WF ne s’appuie QUE sur le 1er résultat du backtest a= 15 b=15 les résultats sont effectivement catastrophiques comme on le voit sur le tableau

    MAIS si le WF avait pris la deuxième combinaison (A l’aide d’un filtre etc..) a=15 b=24 on aurait cette fois eu un gain de 43 % et un WF exceptionnel

    Encore plus avec celui en 9 ème position +76 % !

    Est ce que cela veut dire qu’il s’agit là d’un mauvais algo ? d’un algo pas robuste ? Non je ne pense pas

    A ce compte là on devrait entendre par “robuste” simplement la capacité à reproduire le fait que le 1er d’un backtest soit toujours gagnant

    Je vais clore les démonstrations en espérant vous avoir convaincu du peu d’intérêt des backtest, et encore plus des WF=reproduction de backtest et qu’en aucun cas un WF ne traduira la robustesse d’un système, mais simplement sa capacité à reproduire sur x passes le fait que le 1er soit gagnant d’où la rareté des licornes car si l’on considère, subjectivement que cela se produit sur un algo sur 10 (et encore mes tests montrent que c’est plus faible), une licorne sur 5 passes c’est 1/10*/1/10*1/10*1/10*1/10= 1 chance sur 100000 d’en trouver une !

    Alors oui comme dit Nicolas, on a que cela, Ok, mais est ce une raison suffisante pour continuer ?

    Je vous laisse réfléchir à tout cela, bye

    #169315

    Ah oui dernier truc, histoire d’enfoncer le clou

    Il n’y a aucune corrélation (Test de Pearson notamment) entre les différentes valeurs données dans les résultats de backtest et le % de gain

    Qui a dit que du coup cela ne servait à rien non plus 🙂

    Un exemple…

    #169317

    (Non) corrélation entre Max Drawdown et % Gain par exemple

    Cheers

    #169321

    Bonjour,

    Petite question en rapport avec le sujet de base. De ton côté, @zilliq, as-tu un algo qui tourne en réel depuis au moins un an?

    J’ai vu que tu crée des algorithmes pour les clients.

Viewing 15 posts - 31 through 45 (of 68 total)

Create your free account now and post your request to benefit from the help of the community
Register or Login