Évaluer la robustesse d’une stratégie de trading au premier coup d’œil

Forums ProRealTime forum Français Support ProOrder Évaluer la robustesse d’une stratégie de trading au premier coup d’œil

Viewing 15 posts - 46 through 60 (of 70 total)
  • #142112

    Bonjour la file,

    je viens de publier un article dans lequel j’explique comment je procède pour valider une stratégie de trading automatique :

    Validate a trading strategy thanks to stress tests

    Je fais subir un certain nombre de stress tests que ma stratégie doit supporter et dont voici les principaux :

    1. Augmentation du spread

    Le premier stress-test que je fais est celui de l’augmentation du spread. Je considère qu’un stratégie doit supporter au moins deux fois le spread afficher par le courtier.

    https://artificall.com/prorealtime/validate-a-trading-strategy-thanks-to-stress-tests/#Spread-increase

    2. Chasse au stop loss

    Une variante de ce test consiste à faire exécuter les stop loss à un point près pour voir si leur positionnement n’est pas sur-optimisé.

    https://artificall.com/prorealtime/validate-a-trading-strategy-thanks-to-stress-tests/#Spread-increase

    3. Retour au pile ou face

    En suite, à l’aide d’une fonction codée en Python, je simule le résultat qu’aurait ma stratégie si le taux de réussite retombait à 50 %. C’est ce que j’appelle le test du « retour au pile ou face ».

    https://artificall.com/prorealtime/validate-a-trading-strategy-thanks-to-stress-tests/#back-to-heads-or-tails

    4. Succession de pertes et pire cas possible

    Après cela, je calcule le pire cas possible, c’est à dire après combien de pertes successives j’aurais une perte total en capital. Dans ce test j’imagine que chaque position ouverte se fait immédiatement clôturer par l’exécution du stop loss.

    Je n’accepterais pas une perte total en capital après moins de 50 pertes successives, correspondant à 2 % de risque par trade, ce qui est un classique du money managment

    https://artificall.com/prorealtime/validate-a-trading-strategy-thanks-to-stress-tests/#Series-of-losses

    5. Flash crack

    En suite, je calcule les conséquences sur mon compte si un flash crack survenant et provoquerait un effondrement des marchés de 20 % en moins d’une minute. J’ai pris l’exemple du crack de l’USD/CHF après que la BNF ait revaloriser le franc suisse en 2015.

    https://artificall.com/prorealtime/validate-a-trading-strategy-thanks-to-stress-tests/#Flash-crack

     

    Habituellement, si une stratégie de trading automatique échoue sur un seul des tests précédent, je préfère ne pas la mettre en production.

    N’hésitez pas à me dire si vous êtes d’accord ou pas avec moi et comment vous faites pour valider une stratégie en automatique ?

    #167467

    Ce que j’ai trouvé intéressant c’est que tu arrives sur certains points aux mêmes conclusions que moi.

    Notamment sur ce point ” J’ai remarqué qu’un système légèrement sous-optimisé génère moins de différences entre l’IS et OOS”. Même observation, mais je n’ai pas d’explication. En gros moins on a de belles courbes et d’overfit, plus les résultats OOS seront corrélés. Un peu flippant et perturbant mais cela semble ainsi. Dans ma tête je vois cela comme une sorte de plafond de verre que l’on arrive pas à dépasser. Pareil les trades à SL constant semblent être ceux qui donnent plus de constante en OOS etc..

     

    Dans le cas des stoploss fix (statiques), en réalité ils sont définis en fonction de la volatilité historique de court moyen terme de l’actif. Par exemple, avant la crise du coronavirus, sur le DAX en intraday, je plaçais les stoploss à 25 points. Mais depuis le corona-crash, je place mes stoploss entre 30 et 40 points. Donc il y a un réajustement à réaliser d’un trimestre à l’autre, ce qui fait que les stop fix sont en réalité des stops dynamiques réadaptés au trimestre ou à l’année.

    C’est un vrai problème quand on fait des backtests sur une très longue période. Par exemple, un stoploss placé à 100 points sur le DAX dans les années 1990 qui vaut xxx points n’a pas du tout la même valeur relative quand le DAX vaut 14000 points en 2021.

    En d’autres termes, cette valeur du stoploss est sous-optimisée au début du backtest et suroptimisée en fin de backtest.

     

    Dans une analyse WF, si on veut des OOS corrélés à l’IS, alors on introduit un biais et par conséquent on suroptimise, d’où des OOS temps réel qui ne correspondent plus à nos tests de robustesse.

    L’idée du fusible avec le Z-score (écart type vis à vis de résultats moyen ?) est une bonne idée.

     

    C’est aussi ce que je pense : dans un WF, si on modifie les paramètres du training set en fonction du test set, cela revient à transformer le test set en training set finalement. Il y a donc un risque de découvrir par accident, une configuration suroptimisée à la fois sur le training set et sur le test set.

    En revanche ce qui m’intéresserait vraiment avec le WF, ce serait de pouvoir ajuster des paramètres avec d’autres statistiques que la performance annualisée (CAGR). Je serais très intéressé de pouvoir déterminer une performance minimum exigée, par exemple 2%, et de pouvoir équilibrer le training set et la test set sur leur volatilité respective avec un écart-type par exemple (au lieu du CAGR). En fait, dans l’idéal il faudrait pouvoir ajuster le training set et le test set avec n’importe quelle métrique, tel que le ratio de Sharpe, le tracking error, le ratio MFE/MAE, le drawdown, etc…

    Ça serait vraiment super si Prorealtime pouvait intégrer cette possibilité dans la prochaine mise à jour. Il faudrait aussi pouvoir créer des training set et test set de manière aléatoire sur un backtest. Cela me dérange un peu que le training set soit toujours sur une période qui précède le test set. Je voudrais avoir la possibilité de définir des training set un peu n’importe où sur la période du backtest pour tester le résultat de l’optimisation également sur les périodes de test set choisie aléatoirement. Je pense que le WF aurait beaucoup plus de robustesse en fonctionnant ainsi.

     

    Logique, mais perturbant 😉

    Imagine, moins la courbe IS est “belle” plus on a de chances que les résultats OOS soient corrélés

    Alors oui, mais jusqu’à quelle limite ?. Car finalement, à ce compte là on ne s’embête plus on fait un backtest “pourri” avec un gain positif et roule

    Il y a donc une ligne de fracture pas simple à déterminer (60-70 % de trades gagnants ?)

    En l’état actuel des recherches, je dirais que l’on peut définir une “belle” courbe IS = potentiellement plus d’overfit en fonction de certains paramètres (Faible max drawdown par ex etc..)

    Pour moi, une stratégie automatique optimisée ne fait rien d’autre que mettre en exergue ce que les traders manuels voient avec leurs yeux en regardant l’historique de prix d’un actif. Un backtest va en quelque sorte mettre en équation ce qu’il aurait fallu faire dans le passé pour être gagnant. Or, la seule « vérité » sur les marchés qui est toujours vraie, est que la majorité des retails traders perdent de l’argent. Je ne crois pas ces théories qui disent que les gens sont stupides, etc. Personnellement, je suis arrivé à la conclusion que les marchés sont manipulés par les “big guys” contre les mains faibles. C’est-à-dire que les mains fortes voient la même chose que les mains faibles; ils voient les mains faibles “voir ce qu’ils voient” et anticipent leurs actions à venir. Lorsque que les retails traders prennent une position sur une configuration qui fut très gagnante dans le passé, les mains fortes vont “manipuler” le marché pour venir chercher les stoploss des mains faibles. Il leur suffit de placer une succession d’ordres spoofing en sens inverse pour créer un reflux puis un dernier spoofing quand le prix approche la zone rationnelle de positionnement du stoploss pour désactiver les positions des retails traders.

    J’ai trop souvent vu le marché décrocher brutalement et immédiatement après un point d’entré long et repartir à la hausse juste après que le stoploss ait été touché à un point près. Ce phénomène est trop fréquent et trop précis pour qu’il s’agisse de hasard. De plus les big guys ont des outils leur permettant de connaitre les positions des retails traders.

    Donc pour moi, le fait qu’une trop belle courbe en backtest devienne perdante dans l’avenir s’explique par ce genre d’arbitrage. D’ailleurs, cela fait un moment que j’étudie la possibilité de volontairement suroptimiser une stratégie dans le but de prendre des positions contraires. Mes premiers tests sont assez concluants mais il y a deux paramètres difficiles à déterminer. Il s’agit de la période de suroptimisation en fonction de l’UT et de la durée de validité d’une telle stratégie. Pour le moment j’ai trouvé que pour une stratégie suroptimisée dans une UT de 1 minute, la période de suroptimisation doit être de 2 à 3 mois et la durée de validité serait d’une à deux semaines. Et pour une stratégie dans une UT de deux minutes, la période de suroptimisation devrait être de 5 à 6 mois avec une durée de validité également d’une à deux semaines.

     

    Bon, c’est parti.

    Cela a été un peu long à calculer tout cela (D’ailleurs @vschmitt il y a des erreurs dans ton chapitre sur le Z-Score. Dans le tableau le Z-Score n’a pas d’unités (c’est un rapport), donc pas en Euro notamment 😉

    Quoi qu’il en soit, si on part sur un trading à trade constant.

    Bah c’est assez logique, mais sur plusieurs essais/algos on est quasi constamment avec un Z-score entre -0.85/+0.85 et on ne peut pas vraiment dire qu’un excès entraîne par la suite une baisse de performance 🙁

    Ps: Sur le Graph, le Z-Score est calculé à partir de la moyenne et de l’écart type de l’ensemble de la série

     

    Oui il faut faire attention à cela car dans ce cas, le calcul se fait à partir de données qui étaient inconnues. Par exemple, si on calcule la moyenne sur 100 périodes, on intègre des données qu’on ne connaissait pas à p=50. (c’est vrai que je n’ai pas donné cette précision dans mon livre). De plus, puisque qu’en OOS on observe une dégradation de la performance, la moyenne en OOS devrait être inférieur à celle en IS. Il y a donc un biais dans la lecture du z-score. Il est possible qu’il y ait un décalage et que par exemple, le deuxième sigma en IS soit équivalent au troisième sigma en OOS puisque la moyenne devrait être inférieure en OOS.

    Dans mes observations, je n’ai pas constaté qu’un z-score supérieur à 85% permettait de prédire une perte immédiate, mais plutôt que la série de trades suivant avait plus de chance d’être perdante ou plus volatile qu’habituellement. J’applique personnellement cette règle depuis février et pour le moment j’ai évité deux séries de pertes sur plusieurs stratégies. Un des robots que j’avait arrêté aurait réalisé un gain juste après mais trois pertes consécutives ensuite.

    En fait cette règle de gestion que j’ai imaginé rejoint ce que je dis plus haut dans ce message au sujet du risque d’arbitrage des stratégies trop gagnantes. Même si je n’ai jamais vraiment validé cette règle en backtest, cela semble fonctionner en réel. D’autant que j’y ajoute une autre règle qui consiste à réévaluer les conditions de marché et éventuellement à relancer et/ou contrôler l’optimisation du système.

    Pour valider l’utilisation du z-score de manière systématique, il faudrait le faire uniquement sur la période OOS et comparer la volatilité des x positions suivantes et comparer cette volatilité avec la volatilité moyenne de la performance pour voir s’il y aurait une différence significative. Il faudrait aussi comparer la performance annualisée des mêmes x positions suivant un z-score supérieur à 85%.

    Le problème de l’analyse des backtest IS est qu’ils sont toujours un peu suroptimisés, donc il est normal de trouver de très grandes séries gagnantes. Et ces grandes séries gagnantes sont beaucoup moins fréquentes en OOS.

    Pour le moment je conserve cette règle de management des systèmes de trading, je n’ai pas noté une meilleure performance que si je ne l’utilisais pas mais j’ai évité beaucoup d’ouvertures de positions pour une performance à peu près égale, donc je diminue mon exposition au risque.

    Beaucoup de règles de gestions utilisées par certains gérants n’améliorent pas leur performance voir la dégrade. Pour moi cette règle a pour objectif de m’éviter de me faire embarquer dans un arbitrage collectif après que ma stratégie serait devenue (accidentellement) trop gagnante. Cette règle n’est peut-être pas suffisante ou mal définie. D’ailleurs, j’utilise aussi un z-score glissant sur les 3 dernières périodes en complément. Mais peut-être qu’un simple écart-type pourrait suffir pour arrêter une stratégie devenue trop instable.

     

    Bonjour Vivien

    Où puis-je acheter un livre à la première personne?

    Amusez-vous bien.

     

    Bonjour @Razz,

     

    vous trouverez la version numérique de mon livre sur mon site ici :

    https://artificall.com/product/fr-trading-automatique-avec-prorealtime/

     

    Vous trouverez la version papier de mon livre sur Amazon ici :

    https://www.amazon.fr/dp/B08ZBM2T4M

     

    Je viens juste de publier la version anglaise sur mon site et qui sera aussi disponible sur le marketplace de Prorealcode :

    https://artificall.com/product/automated-trading-thanks-to-prorealtime-ebook/

     

    Merci pour l’intérêt que vous portez à mon travail 😊

    #210660

    Bonjour à tous,

    J’ai lu avec attention le post et excusez moi d’interfferer dans votre discussion entre spécialiste mais pour mon information et ma compréhension pourriez vous s’il vous plait m’indiquer ce que veut dire :

    – analyse WF

    -IS

    -OOS

    D’autre part j’en profite, dans les resultats des back test dans la fenetre Statistique des positions cloturés Prorealtime affiiche le Drawdoxnmax ainsi que le %Drawdown max donc en % . Mais % de quoi ?

    Cela n’a pas l’air d’etre un % du capital de depart de la stratégie, cela n’est pas non plus un % du gain etc ……

    Vous remerciant à l’avance et en m’excusant d’intervenir dans votre discussion de spécialsite  🙂

     

     

    #210661

    Bonjour à tous,

    J’ai lu avec attention le post et excusez moi d’interfferer dans votre discussion entre spécialiste mais pour mon information et ma compréhension pourriez vous s’il vous plait m’indiquer ce que veut dire :

    – analyse WF

    -IS

    -OOS

    D’autre part j’en profite, dans les resultats des back test dans la fenetre Statistique des positions cloturés Prorealtime affiiche le Drawdoxnmax ainsi que le %Drawdown max donc en % . Mais % de quoi ?

    Cela n’a pas l’air d’etre un % du capital de depart de la stratégie, cela n’est pas non plus un % du gain etc ……

    Vous remerciant à l’avance et en m’excusant d’intervenir dans votre discussion de spécialsite 🙂

    Analyse Walk Forward

    IS In Sample

    OOS Out Of Sample

    % Par rapport au Gain max de mémoire

    Passe une très bonne fin de journée

    Zilliq

    1 user thanked author for this post.
    #210691

    Merci beaucoup Zilliq   , Tres bonne continuation à toi .

    #219571

    Passionnant sujet que cette recherche du graal algorythmique et un grand merci pour ce partage ;

    Au niveau technique,

    @vschmitt Oui il est très clair que les whales (big guys) voient très bien où se trouve la liquidité dans le marché (le volume des ordres d’achat et de vente) car tous le monde voit bien les mêmes niveaux de support/resistance ; c’est le sens des pull-backs après des break-outs qui ne font que donner plus de fuel au mouvement pour “liquider les petites mains” mais cela ne change pas la tendance pour moi ;

    => au niveau manuel, il y a des stratégies simples pour pallier le problème en divisant en 2 sa pose par exemple pour réduire son risque ;

     

    Au niveau algorythmique,

    personnellement j’ai fait le deuil de stratégies éternelles et universelles ; cela n’existe pas et n’existera jamais car le marché ne peut être modelisé (mais on peut modeliser des anomalies de marchés) ;

    Du coup je me dis qu’il faut monitorer les equity des nos strats les moins déconnantes comme des prix et ne les lancer que lorsqu’elles rentrent en raisonnance avec le marché et les arrêter quand elles sortent du rail.

     

     

    #219585

    Merci de ton intérêt pour cette discussion

    Pour faire simple et 6 mois après mon dernier message, je pense également qu’il n’existe pas de stratégie universelle et perpétuelle et je pense beaucoup plus que le fait d’avoir un algo gagnant est le fait de la chance ou d’une bonne période  plutôt qu’autre chose

    je suis allé au plus loin possible de mes recherches en mettant en place un protocole permettant de tester des centaines de couples de variables IS et OOS, sur différents sous jacents, et AUCUN indicateur proposé classiquement et notamment par prorealtime n’est corrélé à la probabilité d’une continuation de gain en OOS (J’ai tout testé, les classiques type gain moyen, max drawdown runup, aux moins classiques Sharpe etc..,nada aucune corrélation). C’est exactement la conclusion d’un excellent papier sur le sujet dont j’ai oublié le nom, fait à une très grande echelle. Et inversement, de mauvais résultats IS peuvent être suivis d’excellents résultats en OOS. j’ai testé différentes stratégies en descente de gradient, mais nada également

    Je précise que je parle des algos des pécores, dont je fait parti, pas des algos de fonds de pension ou autre qui font 100 trades à la minute cherchent des micro points, ne paient pas de commissions etc…Enfin, des choses auxquels on a pas accès mais qui nous font tous rever

    Utiliser l’equity curve, pourquoi pas, mais compliqué à programmer, Nicolas avait bossé dessus de mémoire, rien de concluant

    Enfin bref, même si cela peut “choquer” je pense qu’un algo gagnant sur une période c’est très bien mais surtout de la chance, ou une très bonne période,  et ne présage en aucun cas de bons résultats OOS.

    Par exemple les algo testés sur les 6 derniers mois, donnent d’excellents résultats, mais dans la prochaine période de correction il en sera tout autre

    Bien sur tout à fait disposé à changer et me prouver le contraire

    Zilliq

    1 user thanked author for this post.
    #219610

    Hello @Zilliq

    Equity Curve Trading

    Pour l’instant j’applique un indicateur sur mon equity de backtest qui me donne le Signal de ON et de OFF en visuel ; donc rien d’automatique ;

    Oui @Nicolas en avait parlé et je l’en remercie au passage : il faut transformer l’équity en indicateur pour pouvoir l’intégrer dans une strat ; mais pas encore fait pour ma part ;

    Je pense que c’est une piste néanmoins qui n’a pas été explorée ;

     

    Typologie de marché

    Concernant le constat de l’impossible corrélation IS / OOS,  finalement, le plus important est donc de bien d’identifier la configuration du marché à un instant T sur ce TimeFrame non ?

    Dans tes recherches as-tu d’autres typologies de marché que le basique Haussier / Baissier / Range ?

     

    Le “pulse” du marché 

    Quel serait pour toi (et pour qui lit ce message) le meilleur indicateur qui identifie la pulsation du marché : les distances temporelles entre deux plus hauts ou deux plus bas ?

    Chris

    #219615

    Sur le premier point, l’equity curve, j’ai déjà beaucoup travaillé dessus, fait des indicateurs dessus, appliqué des indicateurs stats plus ou moins ésotériques mais rien de très probant

    Pour les 2 autres points peux tu détailler car je ne comprends pas ce que tu veux dire

    Très bonne fin de journée

     

    #219657

    Equity Curve

    Peux-tu détailler ce que tu as appliqué concrètement comme indicateur ?

    Il me semble qu’une équity dont les performances “moyennes” se retournent est le signe que les conditions de marché la font dérailler ; il faut donc l’arrêter en attendant que ces performances se retournent à nouveaux sans que cela ne préjuge bien sûr de ces performances futures ; mais au moins on évite les gros trous ;

    Par ailleurs, j’ai souvent été victime de lancement de strat Live dont les performances furent alors catastrophiques au moment du lancement ; après étude, cela correspondait toujours à un moment ou l’équity était mal orientée ; sans que cela invalide la pertinence de la strat à moyen terme d’ailleurs ;

     

    Typologie de marché

    = conditions de marché : c’est basique mais un marché est soit UP/DOWN/RANGE ; mais cela peut être plus complexe canal haussier, range avec faible volat…

    je voulais donc savoir si tu avais bossé sur des typologies complexes de marché et pour activer des stratégies plus pertinentes dans ces configurations particulières.

     

    Le “pulse” du marché 

    https://www.prorealcode.com/topic/dominat-cycle-calculation-by-band-pass-corssing-over/page/3/#post-107788

    comme tu peux le voir dans ce vieux post et en remerciant @Bard et surtout @Hasardeur, les oscillations du marché sont assez bien reproduites dans l’indicateur et ne sont pas si aleatoires ;

    => cela permettrait de détecter les futurs “moments”  du prix et notamment les moments ou il serait pertinent d’augmenter sa position (ou la réduire) ;

    d’où ma question pour savoir si tu avais bossé sur un tel outil alternatif à Ehler du coup 😉

    Bien à toi,

    Chris

     

    #219751

    personnellement j’ai fait le deuil de stratégies éternelles et universelles ; cela n’existe pas et n’existera jamais car le marché ne peut être modelisé (mais on peut modeliser des anomalies de marchés) ;

    Du coup je me dis qu’il faut monitorer les equity des nos strats les moins déconnantes comme des prix et ne les lancer que lorsqu’elles rentrent en raisonnance avec le marché et les arrêter quand elles sortent du rail.

     

    Oui je suis d’accord avec toi @Meta Signals Pro, les stratégies automatiques ont une durée de vie limitée car les marchés changent. J’ai remarqué que cela dépend surtout de l’unité de temps. Plus l’UT est petite, plus la durée de vie sera courte. Je considère que la durée de vie d’une stratégie automatique programmée dans une UT de 10 minutes est d’à peu près un an. Il faut donc réajuster les paramètres au moins une fois par an pour qu’elle continue de performer.

     

    Depuis le moment ou j’ai publié ce post, j’ai trouvé une méthode beaucoup plus simple pour apprécier le niveau de suroptimisation d’une stratégie. Je regarde la corrélation entre le prix du marché et la courbe des gains IS de la stratégie. Je considère qu’une stratégie correctement optimisée devrait avoir une courbe des gains relativement corrélée au marché. Cet indicateur n’est pas suffisant, mais il me permet d’éliminer un grand nombre de paramètres ou de points d’entrées. Cela la rend la suite de l’optimisation beaucoup plus rapide car il y a moins de cas à traiter.

     

    Pour ceux que cela intéresserait, j’ai publié une nouvelle édition de mon livre. La version papier est disponible sur Amazon sur cette page :

    https://www.amazon.fr/dp/B09ZFH257G

     

    La version PDF est disponible sur Prorealcode (je fournis les codes sources avec le PDF) :

    https://market.prorealcode.com/product/trading-automatique-avec-prorealtime/

     

    J’ai supprimé des chapitres inutiles et j’ai ajouté pas mal de choses dont la reconnaissance de figures chartistes et un indicateur fondé sur les corrélations fractales entre deux unités de temps. Cela donne de bons points d’entrées en contre-tendance qui peuvent être utile pour ouvrir des positions de long terme sur ETF. Cet indicateur m’a fait acheter le marché lors du dernier creux alors que tout le monde était baissier 😉

     

    Evidemment, il n’y a pas d’indicateurs parfaits. On ne remplacera jamais le sens commun par un algo ou une IA. Cependant, je pense que programmer et tester des stratégies automatiques peut aider à mieux comprendre le marché et à mieux aborder le trading manuel.

    #219753

    merci pour la précision ^^!

    et pour le lien commerçant (je ne savais pas qu’on avait le droit :-))

    #219754

    Pour l’equity curve, les choses classiques, comme l’application de moyennes mobiles, ou l’application d’un stochastique par exemple. je t’avouerai cela remonte à un bon moment et je ne me souviens plus précisément. Ce dont je me souviens c’est avoir considéré que c’était comme une courbe de prix, et appliquer tout ce qui était applicable … mais sans rien trouver de probant.

    Pour la typologie de marché, je ne vois pas en quoi cela pourrait être un avantage, ou non. Perso, je préfère les indices, actions, ETF etc car de manière on cherche à tirer vers le haut à la différence du forex, par exemple ou ce la tire autant vers le haut que vers le bas

    Pour le pulse de marché, je ne vois rien d’extraordinaire, à priori c’est une sorte de stochastique lissé..”Again” comme dirait Forrest Gump 🙂

    Bonne soirée

    #219757

    Excusez-moi si j’ajoute mon grain de sel… Le sujet est très intéressant. J’ai personnellement essayé beaucoup de choses et testé tous les indicateurs possibles. Mes conclusions sont les suivantes… d’une part, je négocie uniquement des indices tels que le Nasdaq, le DAX ou le SP500, et ensuite uniquement des positions longues. Deuxièmement, la relation entre TP et SL semble cruciale et doit être régulièrement adaptée à la situation du marché. Par exemple, j’ai créé une stratégie Nasdaq-M15 avant Corona, qui était positive presque tous les mois… les énormes fluctuations de la crise Corona l’ont assez bouleversée… mais, des mois plus tard, elle réalisait à nouveau des bénéfices constants comme si de rien n’était. est arrivé. Voici un exemple d’un système très simple, créé en février 2023. Je soupçonne que si le rythme du marché ne change pas de manière significative, la courbe se ressemblera dans six mois.

    https://www.prorealcode.com/topic/a-completely-simple-nas-macd-system/

    En fait, je n’utilise que des éléments/indicateurs dans mes autres systèmes qui montrent un élan dans le sens long. Comme MACD, ou MA10>MA20 ou MA10>MA10[1], la pression à la hausse s’étale sur plusieurs périodes. Et puis j’utilise un SMA dans un M large TF pour éviter les ennuis lorsque le marché est en baisse ou tout simplement stable. Je n’en ai aucune idée, mais d’une manière ou d’une autre, cela semble bien fonctionner. Même les systèmes M1 restent longtemps positifs.

    1 user thanked author for this post.
    #219761

    @phoentzs Oui je suis totalement d’accord, le positionnement des stoploss et targets est fondamental. C’est même un des paramètres les plus importants. Le comportement de votre stratégie peut être assez facilement expliqué par la variation de la volatilité implicite du Nasdaq durant la crise du Corona.

     

    Vous pouvez voir sur ce lien que la volatilité implicite est assez stable dans le temps mais évolue sur le long terme :

    https://www.alphaquery.com/stock/NDAQ/volatility-option-statistics/60-day/iv-mean

     

    Le pic de la volatilité implicite en 2020 devrait être inversement corrélé avec la courbe des gains de votre stratégie, jusqu’au retour à la normal de la volatilité. En principe, le meilleur positionnement des stoploss et target devraient être assez proche de la volatilité implicite, ici autour des 0.2%. Quand j’ajuste les stoploss et targets avec l’optimiseur des variables de Prorealtime (en intraday), j’arrive assez souvent vers ce chiffre (qui diffère en fonction des indices).

     

    Je considère que c’est une des raisons principales qui explique pourquoi nos stratégies automatiques codées avec PRT sont limitées dans le temps. Mais malheureusement, nous n’avons pas accès à cette information sur Prorealtime, (ni à la variation du spread qui explique aussi beaucoup de problème en réel) C’est une des raisons pour laquelle on doit réajuster régulièrement le paramétrage de nos stratégies automatiques…

Viewing 15 posts - 46 through 60 (of 70 total)

Create your free account now and post your request to benefit from the help of the community
Register or Login