Al final pasaré el código y unna imagen, pero permitanme que presente el problema, que me es grave.
Cuando programas un indicador que se mueve entre +40 y -40, en “histograma” y le añades un macd que te da sus divergencias, todo funciona.
Sin embargo, el problema está cuando le añades ese indicador en “linea”.
Al mezclar el indicador que se mueve entre +40 y -40, en línea”, con un indicador que se mueve “sin techo ni suelo” (macd) ……….. entonces en distintos gráficos de tiempo hay que ir parametrizando porque a mayor grado de tiempo, los valores de macd van siendo más altos y en consecuencia, el indicador “en linea”se alisa hasta desaparecer.
Creo que necesito una fórmula de ponderación en el tiempo, pero no tengo ni la más remota idea.
NOTA: El indicador de arriba “linea azul y negra) es exactamente el indicador de abajo que aparece “en linea”.
Su programación es esta:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
///Histograma SMI50
///Establecemos indicador
indicator1=SMI[50,5,15](CLOSE)
indicator2=Average[3](SMI[50,5,15](close))
CERO=0
///Establecemos el movimiento de histograma encima/debajo de linea 0
ALCISTA1=indicator1>indicator2
BAJISTA1=indicator1<indicator2
IFALCISTA1THEN
SEMAFORO1=1
ELSE
SEMAFORO1=0
ENDIF
IFBAJISTA1THEN
SEMAFORO2=-1
ELSE
SEMAFORO2=0
ENDIF
///MACD
///Establecemos indicador
cc=MACDline[12,26,9](close)
///Establecemos los histogramas en función de MACD para ver divergencias
Si entiendo correctamente su problema, es que el MACD no tiene una escala estándar. Usted debe tener un vistazo a esta versión normalizada (que dan Zscore de ella), probablemente podría adaptarse a sus necesidades.